JP2004254218A - Cellular phone, communication method, and communication program - Google Patents

Cellular phone, communication method, and communication program Download PDF

Info

Publication number
JP2004254218A
JP2004254218A JP2003044662A JP2003044662A JP2004254218A JP 2004254218 A JP2004254218 A JP 2004254218A JP 2003044662 A JP2003044662 A JP 2003044662A JP 2003044662 A JP2003044662 A JP 2003044662A JP 2004254218 A JP2004254218 A JP 2004254218A
Authority
JP
Japan
Prior art keywords
sign language
voice
sign
natural language
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003044662A
Other languages
Japanese (ja)
Inventor
Kinya Matsuzawa
欣也 松澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2003044662A priority Critical patent/JP2004254218A/en
Publication of JP2004254218A publication Critical patent/JP2004254218A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a cellular phone, communication method and communication program for easily communicating with each other regardless of whether an opposite party is not handicapped in hearing or is handicapped in hearing. <P>SOLUTION: A user uses sign language in front of a camera 1. On the basis of the image recognition result, a sign-language recognizing part 3 recognizes the sign language of the user (person handicapped in hearing). On the basis of the sign-language recognition result, a sign-language/Japanese translation part 5 translates user's sign language into sentences in Japanese and a Japanese/voice translation part 7 translates the sign language into voices. The sentences in Japanese and the voices are transmitted to the terminal of the opposite party, displayed on the terminal of the opposite party and outputted in voice. Besides, when voices from the terminal of the opposite party are received, the Japanese/voice translation part 7 translates the received voices into sentences in Japanese and further translates them into sign-language animation. The sentences in Japanese and the sign-language animation corresponding to the voices of the opposite party are displayed on a display part 9. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、聴覚障害者同士、または聴覚障害者と健聴者との間で、相手との距離に関係なく、コミュニケーションを行なう携帯電話、通信方法および通信プログラムに関する。
【0002】
【従来の技術】
従来、聴覚障害者と健聴者とは、双方が同じ場所に居る場合、健聴者が手話をできれば、手話により会話を行なうことが可能である。また、健聴者が手話を理解できない場合には、筆談を用いれば、会話を行なうことが可能である。
【0003】
また、相手が遠く離れた場所にいる場合、昨今の携帯電話の普及率の増加により、健聴者であれば、いつでも何処でも誰とでも電話でコミュニケーションをとることが可能となってきた。また、この携帯電話には、メール機能が付いているものが多く、聴覚障害者でもこのメール機能を用いれば、相手が健聴者であれ聴覚障害者であれ、コミュニケーションをとることが可能である。尚、携帯電話に係わる従来技術としては特許文献1や特許文献2などが公開されている。
【0004】
【特許文献1】
特開2000―224319号公報
【特許文献2】
特開2001―197457号公報
【0005】
【発明が解決しようとする課題】
ところで、一般には健聴者のほとんどは手話を理解できず、また、聴覚障害者でも国内35万人中1割程度の人しか手話を使いこなすことができない。したがって、聴覚障害者は、手話のできない相手と会話する場合、主に筆談となるわけであるが、筆談では時間がかかり面倒であり、必ずしも十分な意思疎通ができるとは言えない。
【0006】
また、相手が遠く離れた場所にいる場合、前述したように、携帯電話のメール機能を用いることが考えられるが、リアルタイム性、緊急性などの点から十分なコミュニケーション機能とは言えない。健聴者ならば直接話をしたい場合や、緊急を要する場合などは、メールではなく、音声通話でコミュニケーションを図ることがしばしばある。しかしながら、聴覚障害者は、このような場合、音声通話などのような同時性の高いコミュニケーションを行なうことができないという問題を抱えている。
【0007】
このように、従来の携帯電話では、相手との距離に関係なく、聴覚障害者は、健聴者や手話のできない相手と十分なコミュニケーションをとることができないというのが現状である。
【0008】
この発明は上述した事情に鑑みてなされたもので、相手との距離に関係なく、かつ相手が健聴者、聴覚障害者に限らず、簡便に意思疎通を図ることができる携帯電話、通信方法および通信プログラムを提供することを目的とする。
【0009】
【課題を解決するための手段】
上述した問題点を解決するために、この発明では、少なくとも音声と文字とを相手端末との間で無線通信により双方向伝送する携帯電話において、ユーザを撮影する撮影手段と、前記撮影手段により撮影されたユーザの手話を認識する手話認識手段と、前記手話認識手段により認識されたユーザの手話を自然言語情報に変換する手話言語変換手段と、前記手話言語変換手段により変換された自然言語情報を相手端末へ送信する送信手段とを具備することを特徴とする。
【0010】
この発明の携帯電話によれば、撮影手段により撮影されたユーザの手話を手話認識手段により認識し、手話言語変換手段により、認識されたユーザの手話を自然言語情報に変換し、前記手話言語変換手段により変換された自然言語情報を送信手段により相手端末へ送信する。したがって、相手との距離に関係なく、かつ相手が健聴者、聴覚障害者に限らず、聴覚障害者の意思を簡便に伝達することができる。
【0011】
また、この発明の携帯電話によれば、前記手話言語変換手段により変換された自然言語情報を自然言語音声変換手段により音声に変換し、前記送信手段により、前記自然言語音声変換手段により変換された、ユーザの手話に対応する音声を相手端末へ送信するようにしたので、相手との距離に関係なく、かつ相手が健聴者、聴覚障害者に限らず、聴覚障害者の意思を簡便に伝達することができる。
【0012】
また、この発明の携帯電話によれば、相手端末から音声を受信手段により受信し、受信された音声を音声自然言語情報変換手段により自然言語情報に変換し、変換された相手端末の音声に対応する自然言語情報を表示手段に表示するようにしたので、相手との距離に関係なく、かつ相手が健聴者であっても、相手の意思を簡便に認知することができる。
【0013】
また、この発明の携帯電話によれば、前記音声自然言語情報変換手段により変換された、相手端末の音声に対応する自然言語情報を、手話アニメーション変換手段によって、手話アニメーションに変換し、該変換された、相手端末の音声に対応する手話アニメーションを表示手段に表示するようにしたので、相手との距離に関係なく、かつ相手が健聴者であっても、相手の意思を簡便に認知することができる。
【0014】
また、この発明の携帯電話によれば、前記手話言語変換手段により変換された、ユーザの手話に対応する自然言語情報を前記表示手段に表示するようにしたので、ユーザは、自身の手話が正確に自然言語に変換されたかを確認できる。
【0015】
また、上述した問題点を解決するために、この発明では、少なくとも音声と文字とを用いて相手端末との間で無線通信を行なう通信方法において、撮影されたユーザの手話を認識し、該認識されたユーザの手話を自然言語情報に変換し、該自然言語情報を相手端末へ送信し、前記相手端末から受信した音声を自然言語情報に変換し、該自然言語情報を表示することを特徴とする。
【0016】
また、この発明の通信方法によれば、前記相手端末から受信した音声を変換した前記自然言語情報を手話アニメーションに変換し、該手話アニメーションを表示する。したがって、相手との距離に関係なく、かつ相手が健聴者であっても、相手の意思を簡便に認知することができる。
【0017】
また、上述した問題点を解決するために、この発明では、少なくとも音声と文字とを用いて相手端末との間で無線通信を行なう通信プログラムにおいて、ユーザの手話を撮影するステップと、撮影されたユーザの手話を認識するステップと、認識されたユーザの手話を自然言語情報に変換するステップと、前記ユーザの手話に対応する自然言語情報を相手端末へ送信するステップと、前記相手端末から音声を受信するステップと、受信した音声を自然言語情報に変換するステップと、前記相手の音声に対応する自然言語情報を表示するステップとをコンピュータに実行させることを特徴とする。
【0018】
また、この発明の通信プログラムによれば、ユーザの手話を撮影するステップと、撮影されたユーザの手話を認識するステップと、認識されたユーザの手話を自然言語情報に変換するステップと、前記ユーザの手話に対応する自然言語情報を相手端末へ送信するステップと、前記相手端末から音声を受信するステップと、受信した音声を自然言語情報に変換するステップと、前記相手の音声に対応する自然言語情報を表示するステップとをコンピュータに実行させる。したがって、したがって、相手との距離に関係なく、かつ相手が健聴者、聴覚障害者に限らず、聴覚障害者の意思を簡便に伝達することができる。
【0019】
【発明の実施の形態】
以下、図面を用いて本発明の実施の形態を説明する。なお、以下では、聴覚障害者が持つ携帯電話の構成について説明する。健聴者は、以下に説明する聴覚障害者用の携帯電話を用いて通話しても構わないが必須ではなく、通常(既存)の携帯電話を用いてもよい。ここで言う通常の携帯電話とは、少なくとも、音声入力、音声出力の機能を備えるものであり、好ましくは、テキスト文字を表示可能な表示部を備えていればなおよい。
【0020】
A.実施形態の構成
図1は、本発明の実施形態による携帯電話の構成を示すブロック図である。図1において、カメラ1は、CCDやCMOS型などの撮像素子からなり、室内者(この場合、聴覚障害者)を撮影し、撮影した映像を画像認識部2に供給する。画像認識部2は、カメラ1により撮影されたユーザの顔の表情、腕の動き、手(五指を含む)の形および動きなどを認識し、認識結果を手話認識部3に供給する。手話認識部3は、画像認識部2からの画像認識結果に基づいて、標準手話パターン辞書4を参照し、ユーザの手話を認識する。標準手話パターン辞書4は、単語単位の手話パターンおよび手話パターンをアニメーション化した手話アニメーションを記憶している。
【0021】
因みに、国内で使用されている手話は、「日本語対応手話」と「日本手話」とに大別される。日本語対応手話では、音声として話される日本語の語順で手話単語を表現する。これに対して、手話を母語とする聴覚障害者同士の会話で使われる日本手話は、通常の日本語とは異なる文法を持つ。主に、手指動作で単語を表現し、文法情報の多くを手指動作以外の頭部動作・表情・身振りなどで表現する。本実施形態では、上記「日本語対応手話」と「日本手話」のいずれの手話でも、上記手話認識部3により手話を認識した際に判別し、自動的に切り替えることが可能となっている。また、ユーザが手動で切り替えるようにしてよい。
【0022】
手話⇔日本語変換部5は、手話認識部3による手話認識結果に基づいて、単語辞書6を参照し、助詞や形容詞を付加するなどして、手話を日本語の文章に変換する。単語辞書6は、手話パターンと日本語とを対応付けて記憶している。
【0023】
なお、上述した本実施形態による手話認識アルゴリズム、手話―日本語変換アルゴリズムは、周知のものとし、例えば、特開平6−67601号公報などに記載された技術を用いればよい。
【0024】
次に、日本語⇔音声変換部7は、自端末のマイク11からの音声を周知の音声認識技術により認識し、単語辞書8を参照して日本語(テキスト)に変換する。また、日本語⇔音声変換部7は、手話⇔日本語変換部5による日本語文章(テキスト)を、単語辞書8を参照して音声に変換する。単語辞書8は、日本語(テキスト)と音声とを対応付けて記憶している。
【0025】
表示部9は、液晶表示体、EL表示体、CRTなどからなり、自端末のユーザの手話に対応する日本語文章、相手端末の手話に対応する日本語文章(テキスト:相手が聴覚障害者)、相手端末の音声に対応する日本語文章(テキスト:相手が健聴者)、相手端末の音声に対応する手話アニメーション(相手が健聴者)、相手端末のユーザの手話映像(相手が聴覚障害者)を選択可能に表示する。スピーカ10は、相手端末のユーザの音声(相手が健聴者の場合)、または日本語⇔音声変換部7からの音声を出力する。マイク11は、自端末のユーザの音声を集音する。
【0026】
音声制御部12は、制御部15からの音声データをアナログ化し、スピーカ10に供給する一方、マイク11からの音声をデジタル化して制御部15へ供給する。送受信制御部13は、制御部15の制御の下、通常のダイヤル発呼や、着信、自端末で認識した手話に対応する日本語文章(テキスト)の送信、日本語⇔音声変換部7により該日本語文章に対応する音声の送信、相手端末からの音声(相手が健聴者)の受信などを行なう。キー入力部14は、各種ファンクションボタンや、ダイヤル・文字入力のためのテンキーなどからなる。制御部15は、上述した各部の動作全体を制御する。
【0027】
次に、図2は、本実施形態による携帯電話の外観を示す正面図である。携帯電話には、図示するように、上部から順に、スピーカ10、カメラ1、表示部9、キー入力部14およびマイク11が配置されている。なお、図示の配置は、一例であり、カメラ1を背部に配置したり、筐体を折畳式にしたりするなど、さまざまな形態が可能である。
【0028】
B.実施形態の動作
次に、本実施形態による携帯電話の動作について詳細に説明する。携帯電話では、相手の携帯電話に発呼し、回線が確立されると、自端末からの音声または手話に対応する日本語音声(または文章)による送信(送話)と相手端末からの音声または手話に対応する日本語音声(または文章)の受信とを全二重で行なう。
【0029】
B−1.送信(送話)動作
まず、送信(送話)動作について説明する。ここで、図3は、本実施形態による携帯電話の送信動作を説明するためのフローチャートである。まず、ユーザによりダイヤルされたか否かを判断する(Sa1)。そして、ダイヤルされた場合には、送受信制御部13により発呼し、相手端末との回線を確立する(Sa2)。次に、通常通話であるか否かを判断する(Sa3)。本携帯電話では、音声による通話を行なう通常通話モード、手話により通話を行なう手話通話モードがあり、どちらで通話するかは予めユーザにより選択されているものとする。
【0030】
ここで、通常通話が選択されている場合には、ユーザがマイク11から音声を入力すると(Sa4)、日本語⇔音声変換部7により音声が日本語文章(テキスト)に変換される(Sa5)。次に、上記音声に対応する日本語文章が表示部9に表示される(Sa6)。そして、該音声が送受信制御部13により相手端末に送信される(Sa7)。次に、通話が終了したか否かを判断し(Sa15)、終了していなければ、ステップSa3に戻り、上記処理を繰り返す。一方、通話が終了した場合には、回線を切断して当該処理を終了する(Sb16)。
【0031】
一方、手話通話が選択されている場合には、カメラ1でユーザの手話(顔の表情、腕の動き、手指の形および動きを含む)を撮影する(Sa8)。画像認識部3では、カメラ1により撮影された相手の顔の表情、腕の動き、手(五指を含む)の形および動きなどを画像認識する(Sa9)。次に、手話認識部20では、画像認識部2による画像認識結果に基づいて、標準手話パターン辞書4を参照し、ユーザの手話を認識する(Sa10)。手話⇔日本語変換部5では、手話認識部3による手話認識結果に基づいて、単語辞書6を参照し、ユーザの手話を日本語の文章に変換する(Sa11)。該ユーザの手話に対応する日本語の文章は、自端末の表示部9に表示される(Sa12)。
【0032】
次に、日本語⇔音声変換部7では、ユーザの手話に対応する日本語文章が音声に変換される(Sa13)。そして、ユーザの手話に対応する日本語文章(テキスト)および/または音声が送受信制御部13により相手端末に送信される(Sa7)。次に、通話が終了したか否かを判断し(Sa15)、終了していなければ、ステップSa3に戻り、上記処理を繰り返す。一方、通話が終了した場合には、回線を切断して当該処理を終了する(Sb16)。
【0033】
B−2.受信(受話)動作
次に、受信(受話)動作について説明する。ここで、図4は、本実施形態による携帯電話の受信動作を説明するためのフローチャートである。まず、相手端末から文字(テキスト)を受信したか否かを判断する(Sb1)。そして、相手端末から音声を受信した場合、すなわち、相手端末が通常の携帯電話(相手が健聴者)である場合には、日本語⇔音声変換部7により日本語文章に変換する(Sb2)。次に、相手の音声に対応する日本語文章を手話アニメーションに変換する(Sb3)。上記相手の音声に対応する日本語文章および/または手話アニメーションは表示部9に表示される(Sb4)。次に、通話が終了したか否かを判断し(Sb5)、終了していなければ、ステップSb1に戻り、上記処理を繰り返す。一方、通話が終了した場合には、回線を切断して当該処理を終了する(Sb6)。
【0034】
一方、相手端末から日本語文章(テキスト)を受信した場合、すなわち、相手が聴覚障害者で当該端末と同様の携帯電話を用いて手話で通話している場合には、相手端末からの日本語文章を直接、手話アニメーションに変換する(Sb3)。上記日本語文章および/または手話アニメーションは表示部9に表示される(Sb4)。次に、通話が終了したか否かを判断し(Sb5)、終了していなければ、ステップSb1に戻り、上記処理を繰り返す。一方、通話が終了した場合には、回線を切断して当該処理を終了する(Sb6)。
【0035】
次に、本実施形態による携帯電話を用いた通話動作について説明する。ここで、図5(a)は、相手端末が通常端末(健聴者)であった場合の通話動作を示す概念図であり、図5(b)は、相手端末も本実施形態による携帯端末(聴覚障害者)であった場合の通話動作を示す概念図である。
【0036】
まず、相手端末が通常端末であった場合には、相手端末では、音声が入力され(Sc1)、該音声が当該端末に送信されてくる。当該携帯電話では、相手端末からの音声が受信され(Sc2)、該音声が日本語文章(テキスト)に変換され(Sc3)、さらに、上記日本語文章が手話アニメーションに変換される(Sc4)。携帯電話の表示部には、上記相手端末からの音声に対応する日本語文章(テキスト)または/および手話アニメーションが表示される。したがって、当該携帯電話のユーザである聴覚障害者は、表示部に表示される日本語文章(テキスト)または/および手話アニメーションを見て相手が話していることを認知することができる。
【0037】
また、当該携帯電話では、聴覚障害者であるユーザは、カメラ1に向かって手話を行なうことになる(Sc5)。該手話は、日本語文章(テキスト)に変換され(Sc6)、さらに、該日本語文章が音声に変換される(Sc7)。相手端末には、手話に対応する日本語文章(テキスト)または/および音声が送信される。相手端末では、日本語文章(テキスト)を受信した場合には、該日本語文章を表示部に表示し、音声を受信した場合には、該音声をスピーカから出力する(Sc8)。
【0038】
次に、相手端末も本実施形態による携帯端末(聴覚障害者)であった場合には、聴覚障害者である相手は、カメラ1に向かって手話を行なう(Sd1)。該手話は、日本語文章(テキスト)に変換される(Sd2)。当該携帯電話には、手話に対応する日本語文章(テキスト)が送信される。当該携帯端末では、上記相手の手話に対応する日本語文章(テキスト)が受信され(Sd3)、手話アニメーションに変換される(Sd4)。携帯電話の表示部には、上記相手端末からの手話に対応する日本語文章(テキスト)または/および手話アニメーションが表示される。したがって、当該携帯電話のユーザである聴覚障害者は、表示部に表示される日本語文章(テキスト)または/および手話アニメーションを見て相手の手話を認知することができる。
【0039】
また、当該携帯電話においても、聴覚障害者であるユーザは、カメラ1に向かって手話を行なうことになる(Sd5)。該手話は、日本語文章(テキスト)に変換される(Sd6)。相手端末には、手話に対応する日本語文章(テキスト)が送信される。相手端末では、ユーザの手話に対応する日本語文章(テキスト)が受信され(Sd7)、手話アニメーションに変換される(Sd8)。相手端末の表示部には、当該携帯電話からの手話に対応する日本語文章(テキスト)または/および手話アニメーションが表示される。したがって、当該相手端末の聴覚障害者は、表示部に表示される日本語文章(テキスト)または/および手話アニメーションを見てユーザの手話を認知することができる。
【0040】
なお、上述した実施形態において、聴覚障害者同士の通話においても、互いの手話に対応する日本語文章(テキスト)または/および手話アニメーションを表示するようにしたが、これは、一般的な回線では、帯域幅が狭い(データ転送速度が遅い)ため、カメラで撮影された手話映像を動画で送受信することが難しいためである。
【0041】
これに対して、まだ一般的ではないが、近年、高速回線を用いた高速データ通信を行なう携帯電話がある。この場合には、いわゆるテレビ電話のように動画を送受信することが可能である。したがって、このような高速データ通信が可能であれば、カメラで撮影された聴覚障害者の手話の映像を直接送受信することにより、わざわざ日本語文章(テキスト)や手話アニメに変換して送信する必要はなくなる。聴覚障害者は、互に携帯電話の表示部に表示される相手の手話を直接見ることができる。
【0042】
なお、上述した実施形態では、遠隔通話装置としての電話機能について説明したが、これに限定されることなく、相手と対面しているような状況においても適用することが可能である。この場合、カメラで自分の手話を撮影、手話認識、日本語文章への変換を行なって相手端末へ伝送する。相手の音声は、音声認識により日本語文章に変換して表示部に表示する。このような対面している状況においても、自身の手話の変換、相手の音声の変換を携帯電話によって行なうことで、相手が健聴者、聴覚障害者に限らず、簡便に意思疎通を図ることができる。
【図面の簡単な説明】
【図1】本発明の実施形態による携帯電話の構成を示すブロック図である。
【図2】本携帯電話の外観を示す正面図である。
【図3】本携帯電話の送信動作を説明するためのフローチャートである。
【図4】本携帯電話の受信動作を説明するためのフローチャートである。
【図5】本携帯電話を用いた通話動作について説明するための概念図である。
【符号の説明】
1 カメラ(撮影手段)、2 画像認識部、3 手話認識部(手話認識手段)、4 標準手話パターン辞書、5 手話⇔日本語変換部(手話言語変換手段、手話アニメーション変換手段)、6 単語辞書、7 日本語⇔音声変換部(自然言語音声変換手段、音声自然言語情報変換手段)、8 単語辞書、9 表示部(表示手段)、10 スピーカ、11 マイク、12 音声制御部、13 送受信制御部(送信手段、受信手段)、14 キー入力部、15 制御部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a mobile phone, a communication method, and a communication program for performing communication between hearing-impaired persons or between a hearing-impaired person and a normal hearing person, regardless of the distance to the partner.
[0002]
[Prior art]
Conventionally, when a hearing-impaired person and a hearing-impaired person are in the same place, if the hearing-impaired person can sign, it is possible to converse by sign language. If the hearing person cannot understand the sign language, it is possible to have a conversation by using a handwriting.
[0003]
In addition, when the other party is far away, the spread of mobile phones has recently increased, and it has become possible for a hearing-impaired person to communicate with anyone anytime, anywhere, by telephone. Also, many of these mobile phones have a mail function, and even if the hearing-impaired person uses this mail function, it is possible to communicate with the hearing-impaired or hearing-impaired person. Note that Patent Literature 1 and Patent Literature 2 are disclosed as conventional techniques relating to mobile phones.
[0004]
[Patent Document 1]
JP 2000-224319 A [Patent Document 2]
JP 2001-197457 A
[Problems to be solved by the invention]
By the way, in general, most hearing people cannot understand sign language, and even a hearing-impaired person, only about 10% of 350,000 people in Japan can use sign language. Therefore, when a hearing-impaired person talks with a person who cannot sign, the conversation is mainly written, but writing is time-consuming and troublesome, and it cannot always be said that sufficient communication can be achieved.
[0006]
When the other party is far away, the mail function of the mobile phone may be used as described above. However, the communication function cannot be said to be a sufficient communication function in terms of real time and urgency. If the hearing person wants to talk directly or needs urgency, he or she often communicates by voice instead of email. However, in this case, the hearing impaired person has a problem that it is not possible to perform highly simultaneous communication such as voice communication.
[0007]
As described above, in the conventional mobile phone, the hearing impaired person cannot communicate sufficiently with a normal hearing person or a person who cannot sign, regardless of the distance to the other party.
[0008]
The present invention has been made in view of the above-described circumstances, and regardless of the distance to the other party, the other party is not limited to a hearing-impaired person or a hearing-impaired person, and can easily communicate with a mobile phone, a communication method, and a communication method. It is intended to provide a communication program.
[0009]
[Means for Solving the Problems]
In order to solve the above-mentioned problems, according to the present invention, in a mobile phone that bidirectionally transmits at least voice and text to and from a partner terminal by wireless communication, a photographing means for photographing a user; Sign language recognition means for recognizing the sign language of the user, sign language conversion means for converting the sign language of the user recognized by the sign language recognition means into natural language information, and natural language information converted by the sign language conversion means. Transmitting means for transmitting to the partner terminal.
[0010]
According to the mobile phone of the present invention, the sign language of the user photographed by the photographing means is recognized by the sign language recognizing means, and the recognized sign language of the user is converted into natural language information by the sign language conversion means. The natural language information converted by the means is transmitted to the partner terminal by the transmission means. Therefore, the intention of the hearing impaired person can be easily transmitted regardless of the distance to the opponent, and not limited to the hearing person or the hearing impaired person.
[0011]
Further, according to the mobile phone of the present invention, the natural language information converted by the sign language conversion unit is converted into a voice by the natural language voice conversion unit, and the natural language information is converted by the transmission unit by the natural language voice conversion unit. Since the voice corresponding to the sign language of the user is transmitted to the partner terminal, the intention of the hearing impaired person is easily transmitted regardless of the distance to the partner and not limited to the hearing person or the hearing impaired person. be able to.
[0012]
Further, according to the mobile phone of the present invention, the voice is received from the partner terminal by the receiving means, the received voice is converted into natural language information by the voice natural language information converting means, and the converted voice of the partner terminal is corresponded. Since the natural language information is displayed on the display means, the intention of the partner can be easily recognized regardless of the distance to the partner and even if the partner is a hearing person.
[0013]
Further, according to the mobile phone of the present invention, the natural language information corresponding to the voice of the partner terminal, which has been converted by the voice natural language information converting means, is converted into a sign language animation by the sign language animation converting means. Also, since the sign language animation corresponding to the voice of the partner terminal is displayed on the display means, it is possible to easily recognize the intention of the partner regardless of the distance to the partner and even if the partner is a hearing person. it can.
[0014]
Further, according to the mobile phone of the present invention, the natural language information corresponding to the sign language of the user, which is converted by the sign language conversion means, is displayed on the display means. You can check if it has been converted to natural language.
[0015]
Further, in order to solve the above-mentioned problem, the present invention relates to a communication method for performing wireless communication with a partner terminal using at least a voice and a character. Converting the sign language of the user into natural language information, transmitting the natural language information to the partner terminal, converting the voice received from the partner terminal into natural language information, and displaying the natural language information. I do.
[0016]
According to the communication method of the present invention, the natural language information obtained by converting the voice received from the partner terminal is converted into a sign language animation, and the sign language animation is displayed. Therefore, irrespective of the distance to the opponent, even if the opponent is a hearing person, the intention of the opponent can be easily recognized.
[0017]
In order to solve the above-mentioned problems, according to the present invention, in a communication program for performing wireless communication with a partner terminal using at least a voice and a character, a step of photographing a sign language of a user, Recognizing a user's sign language, converting the recognized user's sign language into natural language information, transmitting natural language information corresponding to the user's sign language to a partner terminal, and outputting voice from the partner terminal. The computer is made to execute a step of receiving, a step of converting the received voice into natural language information, and a step of displaying natural language information corresponding to the voice of the other party.
[0018]
According to the communication program of the present invention, a step of photographing the sign language of the user, a step of recognizing the photographed sign language of the user, a step of converting the recognized sign language of the user into natural language information, Transmitting natural language information corresponding to the sign language to the partner terminal; receiving voice from the partner terminal; converting the received voice into natural language information; and a natural language corresponding to the voice of the partner. And displaying the information. Therefore, the intention of the hearing impaired person can be easily transmitted regardless of the distance to the opponent, and not limited to the hearing person or the hearing impaired person.
[0019]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following, a configuration of a mobile phone possessed by a hearing-impaired person will be described. The hearing person may use a mobile phone for a hearing-impaired person described below to make a call, but this is not essential, and a normal (existing) mobile phone may be used. The ordinary mobile phone referred to here has at least voice input and voice output functions, and preferably has a display unit capable of displaying text characters.
[0020]
A. FIG. 1 is a block diagram showing a configuration of a mobile phone according to an embodiment of the present invention. In FIG. 1, a camera 1 is composed of an image sensor such as a CCD or a CMOS, and photographs an indoor person (in this case, a hearing-impaired person), and supplies the photographed image to an image recognition unit 2. The image recognition unit 2 recognizes the facial expression of the user, the movement of the arms, the shape and movement of hands (including five fingers), and the like, which are captured by the camera 1, and supplies the recognition result to the sign language recognition unit 3. The sign language recognition unit 3 refers to the standard sign language pattern dictionary 4 based on the image recognition result from the image recognition unit 2 and recognizes the sign language of the user. The standard sign language pattern dictionary 4 stores a sign language pattern in word units and a sign language animation in which the sign language pattern is animated.
[0021]
Incidentally, sign language used in Japan is roughly divided into "Japanese sign language" and "Japanese sign language". In Japanese-language sign language, sign language words are expressed in the order of Japanese words spoken as speech. On the other hand, Japanese Sign Language, which is used in conversations between hearing impaired persons whose native language is Sign Language, has a grammar different from that of ordinary Japanese. Mainly, words are expressed by finger movements, and much of the grammatical information is expressed by head movements, facial expressions, gestures, etc. other than finger movements. In the present embodiment, it is possible to determine whether the sign language is recognized by the sign language recognizing unit 3 and automatically switch any of the sign languages of “Japanese sign language” and “Japanese sign language”. Alternatively, the user may manually switch.
[0022]
The sign language / Japanese conversion unit 5 refers to the word dictionary 6 based on the result of the sign language recognition by the sign language recognition unit 3 and converts the sign language into a Japanese sentence by adding particles or adjectives. The word dictionary 6 stores a sign language pattern and Japanese in association with each other.
[0023]
Note that the sign language recognition algorithm and the sign language-Japanese conversion algorithm according to the present embodiment described above may be known, and for example, the technology described in Japanese Patent Application Laid-Open No. 6-67601 may be used.
[0024]
Next, the Japanese-to-speech conversion unit 7 recognizes the voice from the microphone 11 of the own terminal using a well-known voice recognition technology, and converts the voice into Japanese (text) with reference to the word dictionary 8. The Japanese-to-speech conversion unit 7 converts the Japanese sentence (text) by the sign language-to-Japanese conversion unit 5 into speech with reference to the word dictionary 8. The word dictionary 8 stores Japanese (text) and voice in association with each other.
[0025]
The display unit 9 includes a liquid crystal display, an EL display, a CRT, and the like, and includes a Japanese sentence corresponding to the sign language of the user of the own terminal and a Japanese sentence corresponding to the sign language of the other terminal (text: the other party is a hearing impaired person). , Japanese sentences corresponding to the voice of the partner terminal (text: the partner is a normal hearing person), sign language animation corresponding to the voice of the partner terminal (the partner is a normal hearing person), sign language image of the user of the partner terminal (the partner is a hearing impaired person) Is displayed as selectable. The speaker 10 outputs the voice of the user of the partner terminal (when the partner is a normal hearing person) or the voice from the Japanese-to-speech converter 7. The microphone 11 collects the voice of the user of the own terminal.
[0026]
The audio control unit 12 converts the audio data from the control unit 15 into an analog signal and supplies the analog data to the speaker 10, while digitizing the audio from the microphone 11 and supplies the digital signal to the control unit 15. Under the control of the control unit 15, the transmission / reception control unit 13 transmits a normal dial call, receives an incoming call, transmits a Japanese sentence (text) corresponding to the sign language recognized by the own terminal, and performs a Japanese-to-speech conversion unit 7. Transmission of voice corresponding to Japanese sentences, reception of voice from the partner terminal (the partner is a normal hearing person) and the like are performed. The key input unit 14 includes various function buttons, numeric keys for dialing and character input, and the like. The control unit 15 controls the entire operation of each unit described above.
[0027]
Next, FIG. 2 is a front view showing the appearance of the mobile phone according to the present embodiment. As shown in the drawing, a speaker 10, a camera 1, a display unit 9, a key input unit 14, and a microphone 11 are arranged in this order on the mobile phone. Note that the illustrated arrangement is an example, and various forms are possible, such as disposing the camera 1 on the back or folding the housing.
[0028]
B. Next, the operation of the mobile phone according to the present embodiment will be described in detail. With a mobile phone, a call is made to the other party's mobile phone, and when a line is established, transmission (sending) by a Japanese voice (or sentence) corresponding to voice from the own terminal or sign language and voice from the other terminal or Reception of Japanese voice (or sentences) corresponding to sign language is performed in full duplex.
[0029]
B-1. Transmission (transmission) operation First, the transmission (transmission) operation will be described. Here, FIG. 3 is a flowchart for explaining the transmission operation of the mobile phone according to the present embodiment. First, it is determined whether or not the user has dialed (Sa1). When the dial is made, a call is made by the transmission / reception control unit 13 to establish a line with the partner terminal (Sa2). Next, it is determined whether or not the call is a normal call (Sa3). In this mobile phone, there are a normal call mode in which a voice call is made and a sign language call mode in which a call is made in a sign language, and it is assumed that the user has previously selected which one to call.
[0030]
Here, when the normal call is selected, when the user inputs a voice from the microphone 11 (Sa4), the voice is converted into a Japanese sentence (text) by the Japanese-to-voice conversion unit 7 (Sa5). . Next, a Japanese sentence corresponding to the voice is displayed on the display unit 9 (Sa6). Then, the voice is transmitted to the partner terminal by the transmission / reception control unit 13 (Sa7). Next, it is determined whether or not the call has ended (Sa15). If the call has not ended, the process returns to step Sa3 and the above processing is repeated. On the other hand, when the call is terminated, the line is disconnected and the process is terminated (Sb16).
[0031]
On the other hand, if the sign language call is selected, the camera 1 shoots the user's sign language (including facial expressions, arm movements, finger shapes and movements) (Sa8). The image recognizing unit 3 recognizes the facial expression, arm movements, hand (including five fingers) shapes and movements of the other person photographed by the camera 1 (Sa9). Next, the sign language recognition unit 20 refers to the standard sign language pattern dictionary 4 based on the image recognition result by the image recognition unit 2 and recognizes the sign language of the user (Sa10). The sign language / Japanese conversion unit 5 refers to the word dictionary 6 based on the sign language recognition result of the sign language recognition unit 3 and converts the sign language of the user into a Japanese sentence (Sa11). The Japanese sentence corresponding to the sign language of the user is displayed on the display unit 9 of the terminal itself (Sa12).
[0032]
Next, the Japanese-to-speech converter 7 converts a Japanese sentence corresponding to the sign language of the user into a voice (Sa13). Then, a Japanese sentence (text) and / or voice corresponding to the sign language of the user is transmitted to the partner terminal by the transmission / reception control unit 13 (Sa7). Next, it is determined whether or not the call has ended (Sa15). If the call has not ended, the process returns to step Sa3 and the above processing is repeated. On the other hand, when the call is terminated, the line is disconnected and the process is terminated (Sb16).
[0033]
B-2. Reception (Reception) Operation Next, the reception (reception) operation will be described. Here, FIG. 4 is a flowchart for explaining the reception operation of the mobile phone according to the present embodiment. First, it is determined whether a character (text) has been received from the partner terminal (Sb1). Then, when the voice is received from the partner terminal, that is, when the partner terminal is a normal mobile phone (the partner is a normal hearing person), it is converted into a Japanese sentence by the Japanese-to-speech converter 7 (Sb2). Next, a Japanese sentence corresponding to the voice of the other party is converted into a sign language animation (Sb3). The Japanese sentence and / or the sign language animation corresponding to the voice of the other party are displayed on the display unit 9 (Sb4). Next, it is determined whether or not the call has ended (Sb5). If the call has not ended, the process returns to step Sb1 and repeats the above processing. On the other hand, when the call is terminated, the line is disconnected and the process is terminated (Sb6).
[0034]
On the other hand, if a Japanese sentence (text) is received from the partner terminal, that is, if the partner is a hearing-impaired person and talks in sign language using the same mobile phone as the terminal, the Japanese from the partner terminal is The sentence is directly converted into a sign language animation (Sb3). The Japanese sentence and / or the sign language animation is displayed on the display unit 9 (Sb4). Next, it is determined whether or not the call has ended (Sb5). If the call has not ended, the process returns to step Sb1 and repeats the above processing. On the other hand, when the call is terminated, the line is disconnected and the process is terminated (Sb6).
[0035]
Next, a call operation using the mobile phone according to the present embodiment will be described. Here, FIG. 5A is a conceptual diagram illustrating a call operation when the partner terminal is a normal terminal (hearing person), and FIG. It is a conceptual diagram which shows the call operation | movement when it is a hearing impaired person).
[0036]
First, when the partner terminal is a normal terminal, a voice is input to the partner terminal (Sc1), and the voice is transmitted to the terminal. The mobile phone receives a voice from the partner terminal (Sc2), converts the voice into a Japanese sentence (text) (Sc3), and further converts the Japanese sentence into a sign language animation (Sc4). The display unit of the mobile phone displays a Japanese sentence (text) or / and a sign language animation corresponding to the voice from the partner terminal. Therefore, the hearing-impaired person who is the user of the mobile phone can recognize that the other party is speaking by looking at the Japanese sentence (text) or / and the sign language animation displayed on the display unit.
[0037]
In addition, in the mobile phone, the user who is a hearing impaired will sign in the camera 1 (Sc5). The sign language is converted into a Japanese sentence (text) (Sc6), and the Japanese sentence is converted into a voice (Sc7). A Japanese sentence (text) or / and voice corresponding to the sign language is transmitted to the partner terminal. The other party terminal displays the Japanese sentence on the display unit when receiving the Japanese sentence (text), and outputs the sound from the speaker when receiving the sound (Sc8).
[0038]
Next, when the partner terminal is also the portable terminal (deaf person) according to the present embodiment, the partner who is a hearing impaired sign language toward the camera 1 (Sd1). The sign language is converted into a Japanese sentence (text) (Sd2). A Japanese sentence (text) corresponding to the sign language is transmitted to the mobile phone. The mobile terminal receives a Japanese sentence (text) corresponding to the sign language of the other party (Sd3) and converts the sentence into a sign language animation (Sd4). The display unit of the mobile phone displays a Japanese sentence (text) or / and a sign language animation corresponding to the sign language from the partner terminal. Therefore, the hearing-impaired person who is the user of the mobile phone can recognize the sign language of the other party by looking at the Japanese sentence (text) or / and the sign language animation displayed on the display unit.
[0039]
Also in the mobile phone, the user who is a hearing impaired will sign in the camera 1 (Sd5). The sign language is converted into a Japanese sentence (text) (Sd6). A Japanese sentence (text) corresponding to the sign language is transmitted to the partner terminal. At the partner terminal, a Japanese sentence (text) corresponding to the sign language of the user is received (Sd7) and converted into a sign language animation (Sd8). On the display unit of the partner terminal, a Japanese sentence (text) or / and a sign language animation corresponding to the sign language from the mobile phone are displayed. Therefore, the hearing-impaired person of the partner terminal can recognize the sign language of the user by looking at the Japanese sentence (text) or / and the sign language animation displayed on the display unit.
[0040]
Note that, in the above-described embodiment, a Japanese sentence (text) or / and a sign language animation corresponding to each other's sign language is displayed even in a call between hearing-impaired persons. This is because the bandwidth is narrow (the data transfer speed is low), so that it is difficult to transmit and receive a sign language image captured by a camera as a moving image.
[0041]
On the other hand, although not common yet, in recent years, there is a mobile phone that performs high-speed data communication using a high-speed line. In this case, moving images can be transmitted and received like a videophone. Therefore, if such high-speed data communication is possible, it is necessary to directly transmit and receive the sign language image of the hearing impaired taken by the camera, and convert it into Japanese text (text) or sign language animation. Is gone. Deaf people can directly see each other's sign language displayed on the display of the mobile phone.
[0042]
In the above-described embodiment, the telephone function as the remote communication device has been described. However, the present invention is not limited to this, and the present invention can be applied to a situation where the user is facing the other party. In this case, the user captures his / her own sign language, recognizes the sign language, converts the sign language into a Japanese sentence, and transmits it to the partner terminal. The voice of the other party is converted into Japanese text by voice recognition and displayed on the display unit. Even in such a face-to-face situation, by performing the conversion of own sign language and the voice of the other party using a mobile phone, it is possible to easily communicate with the other party, not limited to hearing-impaired or hearing-impaired persons. it can.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a mobile phone according to an embodiment of the present invention.
FIG. 2 is a front view showing an appearance of the mobile phone.
FIG. 3 is a flowchart illustrating a transmission operation of the mobile phone.
FIG. 4 is a flowchart illustrating a receiving operation of the mobile phone.
FIG. 5 is a conceptual diagram for explaining a call operation using the mobile phone.
[Explanation of symbols]
Reference Signs List 1 camera (imaging means), 2 image recognition section, 3 sign language recognition section (sign language recognition means), 4 standard sign language pattern dictionary, 5 sign language / Japanese conversion section (sign language conversion means, sign language animation conversion means), 6 word dictionary , 7 Japanese ⇔ voice conversion unit (natural language voice conversion unit, voice natural language information conversion unit), 8 word dictionary, 9 display unit (display unit), 10 speaker, 11 microphone, 12 voice control unit, 13 transmission / reception control unit (Transmission means, reception means), 14 key input section, 15 control section

Claims (8)

少なくとも音声と文字とを相手端末との間で無線通信により双方向伝送する携帯電話において、
ユーザを撮影する撮影手段と、
前記撮影手段により撮影されたユーザの手話を認識する手話認識手段と、
前記手話認識手段により認識されたユーザの手話を自然言語情報に変換する手話言語変換手段と、
前記手話言語変換手段により変換された自然言語情報を相手端末へ送信する送信手段と
を具備することを特徴とする携帯電話。
In a mobile phone that bidirectionally transmits at least voice and text by radio communication with a partner terminal,
Photographing means for photographing the user;
Sign language recognition means for recognizing the sign language of the user photographed by the photographing means,
Sign language conversion means for converting the sign language of the user recognized by the sign language recognition means into natural language information,
Transmitting means for transmitting the natural language information converted by the sign language converting means to a partner terminal.
前記手話言語変換手段により変換された自然言語情報を音声に変換する自然言語音声変換手段を具備し、
前記送信手段は、前記自然言語音声変換手段により変換された、ユーザの手話に対応する音声を相手端末へ送信することを特徴とする請求項1記載の携帯電話。
Natural language speech conversion means for converting the natural language information converted by the sign language conversion means into speech,
2. The mobile phone according to claim 1, wherein the transmitting unit transmits the voice corresponding to the user's sign language converted by the natural language voice converting unit to a partner terminal.
相手端末から音声を受信する受信手段と、
前記受信手段により受信された音声を自然言語情報に変換する音声自然言語情報変換手段と、
前記音声自然言語情報変換手段により変換された、相手端末の音声に対応する自然言語情報を表示する表示手段と
を具備することを特徴とする請求項1または2記載の携帯電話。
Receiving means for receiving audio from the other terminal;
Voice natural language information conversion means for converting the voice received by the receiving means into natural language information,
3. The mobile phone according to claim 1, further comprising display means for displaying natural language information corresponding to the voice of the partner terminal converted by the voice natural language information conversion means.
前記音声自然言語情報変換手段により変換された、相手端末の音声に対応する自然言語情報を、手話をアニメーション化した手話アニメーションに変換する手話アニメーション変換手段を具備し、
前記表示手段は、前記手話アニメーション変換手段により変換された、相手端末の音声に対応する手話アニメーションを表示することを特徴とする請求項3記載の携帯電話。
Sign language animation conversion means for converting the natural language information corresponding to the voice of the partner terminal, which has been converted by the voice natural language information conversion means, into a sign language animation in which the sign language is animated,
4. The mobile phone according to claim 3, wherein the display unit displays the sign language animation corresponding to the voice of the partner terminal converted by the sign language animation conversion unit.
前記表示手段は、前記手話言語変換手段により変換された、ユーザの手話に対応する自然言語情報を表示することを特徴とする請求項1ないし4のいずれかに記載の携帯電話。The mobile phone according to any one of claims 1 to 4, wherein the display unit displays the natural language information corresponding to the sign language of the user converted by the sign language conversion unit. 少なくとも音声と文字とを用いて相手端末との間で無線通信を行なう通信方法において、
撮影されたユーザの手話を認識し、該認識されたユーザの手話を自然言語情報に変換し、該自然言語情報を相手端末へ送信し、
前記相手端末から受信した音声を自然言語情報に変換し、該自然言語情報を表示することを特徴とする通信方法。
In a communication method for performing wireless communication with a partner terminal using at least voice and text,
Recognizing the photographed user's sign language, converting the recognized user's sign language into natural language information, transmitting the natural language information to the partner terminal,
A communication method comprising: converting speech received from the partner terminal into natural language information; and displaying the natural language information.
前記相手端末から受信した音声を変換した前記自然言語情報を手話アニメーションに変換し、該手話アニメーションを表示することを特徴とする請求項6記載の通信方法。7. The communication method according to claim 6, wherein the natural language information obtained by converting the voice received from the partner terminal is converted into a sign language animation, and the sign language animation is displayed. 少なくとも音声と文字とを用いて相手端末との間で無線通信を行なう通信プログラムにおいて、
ユーザの手話を撮影するステップと、
撮影されたユーザの手話を認識するステップと、
認識されたユーザの手話を自然言語情報に変換するステップと、
前記ユーザの手話に対応する自然言語情報を相手端末へ送信するステップと、
前記相手端末から音声を受信するステップと、
受信した音声を自然言語情報に変換するステップと、
前記相手の音声に対応する自然言語情報を表示するステップと
をコンピュータに実行させることを特徴とする通信プログラム。
In a communication program that performs wireless communication with a partner terminal using at least voice and text,
Capturing a sign language of the user;
Recognizing the sign language of the photographed user;
Converting the recognized user sign language into natural language information;
Transmitting natural language information corresponding to the sign language of the user to the partner terminal;
Receiving voice from the partner terminal;
Converting the received speech into natural language information;
Displaying the natural language information corresponding to the voice of the other party on a computer.
JP2003044662A 2003-02-21 2003-02-21 Cellular phone, communication method, and communication program Pending JP2004254218A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003044662A JP2004254218A (en) 2003-02-21 2003-02-21 Cellular phone, communication method, and communication program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003044662A JP2004254218A (en) 2003-02-21 2003-02-21 Cellular phone, communication method, and communication program

Publications (1)

Publication Number Publication Date
JP2004254218A true JP2004254218A (en) 2004-09-09

Family

ID=33027291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003044662A Pending JP2004254218A (en) 2003-02-21 2003-02-21 Cellular phone, communication method, and communication program

Country Status (1)

Country Link
JP (1) JP2004254218A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100687690B1 (en) 2006-01-24 2007-02-27 엠텍비젼 주식회사 Digital processing apparatus capable of inputting data using camera and inputting method thereof
KR100697625B1 (en) 2005-09-12 2007-03-22 삼성전자주식회사 System AND Method for Recognition and Conversion in Mobile Telephone Terminal
JP5564625B1 (en) * 2014-01-10 2014-07-30 ソフトバンクモバイル株式会社 Program and display control device
JP2015169814A (en) * 2014-03-07 2015-09-28 サカタインクス株式会社 Method and system for supporting communication
JP2017204067A (en) * 2016-05-10 2017-11-16 株式会社オルツ Sign language conversation support system
WO2019003616A1 (en) * 2017-06-26 2019-01-03 ソニー株式会社 Information processing device, information processing method, and recording medium
CN110070065A (en) * 2019-04-30 2019-07-30 李冠津 The sign language systems and the means of communication of view-based access control model and speech-sound intelligent
JP2019535059A (en) * 2016-09-13 2019-12-05 マジック リープ, インコーポレイテッドMagic Leap,Inc. Sensory eyewear
JP2020160004A (en) * 2019-03-28 2020-10-01 株式会社ホンダアクセス Vehicle navigation device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100697625B1 (en) 2005-09-12 2007-03-22 삼성전자주식회사 System AND Method for Recognition and Conversion in Mobile Telephone Terminal
KR100687690B1 (en) 2006-01-24 2007-02-27 엠텍비젼 주식회사 Digital processing apparatus capable of inputting data using camera and inputting method thereof
JP5564625B1 (en) * 2014-01-10 2014-07-30 ソフトバンクモバイル株式会社 Program and display control device
JP2015169814A (en) * 2014-03-07 2015-09-28 サカタインクス株式会社 Method and system for supporting communication
JP2017204067A (en) * 2016-05-10 2017-11-16 株式会社オルツ Sign language conversation support system
WO2017195775A1 (en) * 2016-05-10 2017-11-16 株式会社オルツ Sign language conversation assistance system
US11410392B2 (en) 2016-09-13 2022-08-09 Magic Leap, Inc. Information display in augmented reality systems
US11747618B2 (en) 2016-09-13 2023-09-05 Magic Leap, Inc. Systems and methods for sign language recognition
JP2019535059A (en) * 2016-09-13 2019-12-05 マジック リープ, インコーポレイテッドMagic Leap,Inc. Sensory eyewear
WO2019003616A1 (en) * 2017-06-26 2019-01-03 ソニー株式会社 Information processing device, information processing method, and recording medium
US11354511B2 (en) 2017-06-26 2022-06-07 Sony Corporation Information processing device, information processing method, and recording medium
JP2020160004A (en) * 2019-03-28 2020-10-01 株式会社ホンダアクセス Vehicle navigation device
JP7336862B2 (en) 2019-03-28 2023-09-01 株式会社ホンダアクセス Vehicle navigation system
CN110070065A (en) * 2019-04-30 2019-07-30 李冠津 The sign language systems and the means of communication of view-based access control model and speech-sound intelligent

Similar Documents

Publication Publication Date Title
US9111545B2 (en) Hand-held communication aid for individuals with auditory, speech and visual impairments
US20140171036A1 (en) Method of communication
WO1997008895A1 (en) Chirological telephone system
JP2000068882A (en) Radio communication equipment
US20060241935A1 (en) Method for setting main language in mobile terminal and mobile terminal implementing the same
JP2004254218A (en) Cellular phone, communication method, and communication program
KR100697625B1 (en) System AND Method for Recognition and Conversion in Mobile Telephone Terminal
KR20070057351A (en) Mobile phone for transforming braille into voice
KR101400754B1 (en) System for providing wireless captioned conversation service
JP2004015478A (en) Speech communication terminal device
EP1542468B1 (en) Data processor, data processing method and electronic equipment for text transmission
JP2004015250A (en) Mobile terminal
JP2006139138A (en) Information terminal and base station
JP2004248022A (en) Mobile phone and communicating method using the same
JP4600643B2 (en) Videophone device having character display function and voice character conversion display method in videophone device
JP2003188948A (en) Portable terminal device
KR20070071881A (en) Communication method of mobile phone for deaf mutism
CN210402846U (en) Sign language translation terminal and sign language translation server
KR100578652B1 (en) Wireless telecommunication terminal and its method for controlling display of voice recognition data
KR200234151Y1 (en) telephone for the deaf
KR20070027943A (en) Method for performing video telephone of sign language in wireless terminal
JP2005197889A (en) Mobile phone and sign language communication system
JP4534470B2 (en) Virtual conversation system
KR101575350B1 (en) Mobile communication terminal and method of finger-language communication using the same
JP2004254217A (en) Interphone system and two-way calling method