JP2004194207A - 携帯端末装置 - Google Patents

携帯端末装置 Download PDF

Info

Publication number
JP2004194207A
JP2004194207A JP2002362555A JP2002362555A JP2004194207A JP 2004194207 A JP2004194207 A JP 2004194207A JP 2002362555 A JP2002362555 A JP 2002362555A JP 2002362555 A JP2002362555 A JP 2002362555A JP 2004194207 A JP2004194207 A JP 2004194207A
Authority
JP
Japan
Prior art keywords
user
input
terminal device
character
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002362555A
Other languages
English (en)
Inventor
Tomohiro Yamamoto
知広 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2002362555A priority Critical patent/JP2004194207A/ja
Publication of JP2004194207A publication Critical patent/JP2004194207A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Set Structure (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)

Abstract

【課題】場所を問わず、発声や手操作を要することなく、利用者のコミュニケーションを支援することが可能な携帯端末装置を提供すること。
【解決手段】表示部110に、当該携帯端末装置の利用者に対して文字の一覧を表示する。撮像部130により利用者の眼球を逐次撮像し、その画像を視線入力処理部210に供給する。視線入力処理部210は、得られた画像から利用者の視線方向を検出し、その視線方向に基づき50音の一覧内の文字を特定する。特定された文字は音声合成機能付音源240に供給され、音声信号に合成され、スピーカ160から放音される。これにより、発声やキー操作を要することなく、利用者が文字列を入力することができ、その文字列を発音させることにより、他者と会話によるコミュニケーションを図ることができる。
【選択図】 図2

Description

【0001】
【発明の属する技術分野】
本発明は、無線通信回線を介して通話を行うために使用される携帯端末装置に関し、特に視線入力機能を備えた携帯端末装置に関する。
【0002】
【従来の技術】
携帯端末装置の一種である携帯電話においては、従来からの通話機能に加え、各種の付加機能に対する要請があり、例えば発声機能や運動機能に障害を有する人々のコミュニケーションを支援するための付加機能に対する要請がある。従来、この種の支援装置としては、発声装置を有する車イスが知られており、利用者が手元のスティック操作により指定した文字を音声に変換して発音するようになっている。また、この種の支援装置に利用できるものとしては、利用者がキー操作により指定した文字列(文章)を読み上げる機能を有する携帯電話もある。さらには、タブレットを用いて入力された文字データを音声データに変換して発音する音声筆談器もある(特許文献1参照)。
【0003】
【特許文献1】
特開平09−319297号公報
【0004】
【発明が解決しようとする課題】
しかしながら、上述の発声装置は、車イスに取り付けられるものであるために携行性に乏しく、使用可能な場所が限定される。しかも、スティック操作を要するので、例えば手の運動機能にも障害を有している人にとっては利用しにくい面がある。また、読み上げ機能を有する上述の携帯電話によれば、携行性には優れるものの、キー操作により文字を入力しなければならないので、手の運動機能に障害を有している人にとっては同様に不便である。さらに、上述の音声筆談器によれば、タブレットを用いて文字入力する必要があり、同様に手の運動機能に障害を有している人にとっては不便である。
【0005】
この発明は、上記事情に鑑みてなされたもので、場所を問わず、発声や手操作を要することなく、利用者のコミュニケーションを支援することが可能な携帯端末装置を提供することを目的とする。
【0006】
【課題を解決するための手段】
上記課題を解決するため、この発明は以下の構成を有する。
即ち、この発明に係る携帯端末装置は、当該携帯端末装置の利用者に対し所定の配列を有する文字の一覧を表示する表示手段(例えば後述する表示部110に相当する構成要素)と、前記利用者の視線方向に基づき前記一覧内の文字を入力する視線入力手段(例えば後述する撮像部130と視線入力処理部210とを含む構成要素)と、前記視線入力手段により入力された文字を発音するための音声信号を合成する音声合成手段(例えば後述する音声合成機能付音源240に相当する構成要素)と、前記音声合成手段により合成された音声信号に基づき発音する発音手段(例えば後述するスピーカ160に相当する構成要素)とを備える。
【0007】
ここで、前記携帯端末装置において、例えば、前記視線入力手段は、前記利用者の眼球を撮像する撮像部(例えば後述する撮像部130に相当する構成要素)と、前記撮像部により撮像された画像から前記利用者の視線方向を検出し、該視線方向から入力すべき文字を特定する視線入力処理部と、を備えて構成される。また、前記利用者がまばたきする直前の視線の方向を検出するように、前記視線入力手段を構成してもよい。
なお、前記視線入力手段で入力された文字の情報を、当該携帯端末装置の通信機能を実現する通信部に供給してもよく、また前記音声合成手段で合成された音声信号を前記通信部に供給してもよい。
【0008】
この発明の作用を説明する。
当該携帯端末装置に文字を入力する場合、利用者は、表示手段により一覧として表示された文字のうち、入力しようとする文字に視線を合わせる。視線入力手段は、利用者の視線の方向からその文字を認識して入力する。このとき、入力すべき文字の確定は、例えば、利用者がまばたきする直前の視線方向を検出することにより行う。具体的には、上記撮像部で撮像された画像のうち、利用者がまばたきする直前の画像から視線方向を特定し、その視線方向に位置する文字を、入力すべき文字として認識する。この認識された文字を発音するための音声信号が音声合成手段により合成され、この音声信号に基づき発音手段が発音する。
【0009】
また、例えば、視線入力手段で入力された文字を通信部に供給するように構成すれば、メール等の文字情報として外部に送信することが可能になる。また、音声合成手段で合成された音声信号を通信部に供給するように構成すれば、音声情報として外部に送信することが可能になる。
従って、この発明の構成によれば、視線方向から入力すべき文字を指定するように携帯端末装置を構成したので、場所を問わず、しかもキー操作によることなく携帯端末装置に文字を入力することが可能になると共に、その文字を発音させることが可能になる。よって、利用者自身が発声やキー操作によることなく、他者とのコミュニケーションが可能になる。
【0010】
【発明の実施の形態】
以下、図面を参照して、この発明の一実施形態を説明する。
図1に、この実施形態に係る携帯端末装置100の外観を示す。この携帯端末装置100は、通話携帯電話であって、無線公衆回線を介した本来の通信機能に加え、文字等を利用者の視線により入力する視線入力手段と、入力されたテキストを発音するための発音手段とをさらに備えている。
【0011】
図1において、110は表示部、120はキー入力部、130はCCDカメラ等の撮像部、140は受話用のスピーカ、150は送話用のマイクロホン、160はスピーカ、170はアンテナである。ここで、撮像部130は、視線入力時に利用者の眼球を撮像するものであり、スピーカ160は視線入力された文字を放音するためのものである。また、表示部110は、携帯電話に必要とされる一般的な表示機能の他、視線入力に使用される50音の一覧と、発音の開始を指示するための特殊文字「ENTER」の表示機能を有している。
【0012】
上述の一覧は、視線入力との関係上、所定の配列を有しており、入力すべき文字が視線方向に位置するように各文字の配置が適切に設定されている。この実施形態では、50音の文字の一覧を表示するものとするが、これに限らず、数字、アルファベット、図形等であってもよく、発声に使用可能であればどのようなキャラクタから一覧を構成してもよい。この実施形態では、一覧に表示される文字は、発声可能な全てのキャラクタを含むものとする。
【0013】
図2に、携帯端末装置100のブロック構成を示す。上述の図1に示す要素と共通する要素には同一符号を付し、その説明を省略する。
図2において、210は視線入力処理部であり、携帯端末装置100の利用者の視線を検出し、その視線方向から文字を特定するための処理を実行する。この視線入力処理部210は、上述の撮像部130と共に視線入力手段を構成するが、その原理は、福祉機器として公知の「視線入力コミュニケーション装置」(URL:http://www.rehab.go.jp/ri/kaihatsu/itoh/egc.htm、平成14年11月14日検索)と同様である。
【0014】
220は通信部であり、無線公衆回線を介した通信処理を行うものである。この通信部220にはアンテナ170が接続される。230は音声処理部であり、音声信号を符号化/復号化するものである。この音声処理部230には、受話用のスピーカ140と送話用のマイクロホン150が接続される。240は音声合成機能付音源であり、入力された文字を発音するための音声信号を合成するものである。
【0015】
250はCPU(Central Processing Unit)などからなる制御部であり、この装置全体の動作を制御するものである。260はRAM(Random Access Memory)からなる書き替え可能な記憶部であり、処理の過程で発生する一時的なデータを格納するものである。270はROM(Read Only Memory)からなる記憶部であり、制御部250の動作プログラムが格納されている。280はバイブレータであり、機械的振動によって着信を報知するものである。290はバスである。
【0016】
次に、図3に示すフローに沿って、この実施形態の視線入力動作について説明する。携帯端末装置100は、通常の携帯電話としての動作モードに加えて、視線入力モードの選択が可能となっており、この実施形態の動作の説明では、予め、キー入力部120の操作により視線入力モードが設定されているものとする。視線入力モードの場合、制御部250による制御の下、表示部110に50音の一覧が表示されると共に、撮像部130が作動状態に置かれる。この50音の一覧は、制御部250の動作プログラムと共に記憶部(ROM)270に格納されており、制御部250がこの一覧を記憶部270から読み出して表示部110に表示させる。
【0017】
視線入力を行う場合、携帯端末装置100の利用者は、撮像部130の撮像範囲内に眼が収まるように、撮像部130に対する眼の位置関係を調整する。そして、入力しようとする文字に視線を合わせることにより、入力すべき文字を指定し、まばたきすることにより文字を確定する。例えば、文字列「こんにちは」を入力する場合、最初に文字「こ」に視線を合わせ、その状態でまばたきを1回行う。これにより、文字「こ」が入力される。その後、「ん」、「に」、「ち」、「は」の各文字に対して同様の所作を順に行い、各文字を入力する。最後に、発音の開始を指示するための特殊文字「ENTER」に対し同様の所作を行う。
【0018】
ここで、上述の利用者の一連の所作の間、携帯端末装置100内の撮像部130は利用者の眼球を逐次撮像し、その画像を視線入力処理部210に出力する。視線入力処理部210は、その画像から利用者の視線方向を検出し、その視線方向に基づき一覧内の文字を入力するための処理(ステップS1〜S4)を実行する。具体的には、視線入力処理部210は、撮像部130で撮像された画像から、利用者がまばたきしたか否かを判別する(ステップS1)。まばたきがない場合には(ステップ;NO)、このステップS1が一定周期で繰り返され、まばたきがなされるまで次の処理に移行しない。
【0019】
続いて、まばたきがあると判別した場合(ステップS1;YES)、視線入力処理部210は、まばたきをする直前の利用者の視線方向を検出し、その視線方向から入力すべき文字を特定する(ステップS2)。ここで、まばたきをする直前の視線方向を決定する手法としては、例えば、撮像部130で逐次撮像される画像を一定期間保持し、まばたきがあった場合に、その画像の直前の画像を読み出し、この画像から決定する手法が用いられる。
【0020】
続いて、上述の視線入力処理部210により特定された文字は、制御部250による制御の下、通常のキー入力が行われた場合と同様に、表示部110に順次表示される(ステップS3)。図1に示す例では、表示部110の最上段に文字列「こんにちは」として表示され、その下側に50音の一覧が表示されている。また、視線入力処理部210により特定された文字は、上述のように表示されると共に記憶部(RAM)260にも順次記憶される。
【0021】
続いて、制御部250は、視線入力処理部210により特定された文字が「ENTER」か否かを判別する(ステップS4)。「ENTER」ではない場合(ステップS4;NO)、上述のステップS1に処理を戻し、同様の視線入力処理を繰り返し行う。これに対し、「ENTER」である場合(ステップS4;YES)、上述の視線入力処理部210により特定されて記憶部260に記憶された文字を表すデータを音声合成機能付音源240に供給し、この入力された文字列を発音するための音声信号を合成させ、この音声信号に基づきスピーカ160に発音させる。いま、「ENTER」が入力される前の段階では、文字列「こんにちは」が記憶部260に記憶された状態にあるから、この文字列「こんにちは」を表すデータが音声合成機能付音源240に供給され、スピーカ160から文字列「こんにちは」が発音される。
【0022】
この実施形態によれば、次のような効果を得ることができる。即ち、視線入力により文字を入力し、それを音声信号に合成するようにしたので、本来音声として発音すべき文字列を音声やキー操作によらずに入力することが可能になり、例えば発声機能に障害を有する人々の会話によるコミュニケーションを支援したり、静寂な場所で周囲に迷惑を与えることなく通話することも可能になる。
また、この実施形態によれば、視線入力する際に50音の一覧を表示するようにしたので、視線方向を変えるだけで異なる文字を即座に入力することが可能になり、文字列を高速に入力することが可能になる。
さらに、利用者の意思に基づく「まばたき」により入力すべき文字を確定するようにしたので、文字の誤確定を防止することが可能になる。
【0023】
以下に実施形態のポイントをまとめる。
(1)画面に表示した50音の文字を見つめる利用者の視線を検出し、その文字を選択・表示する。これにより、音声を用いることなくコミュニケーションを図ることが可能になる。視線の検出は眼球の画像から検出される。
(2)表示部110に50音の一覧が表示される。
(3)CCDカメラなどの撮像部130で利用者の眼球を撮像し、その画像から使用者の視線方向にある文字を特定して表示する。
(4)視線入力手段により入力された文字は、音声合成機能付音源240で音声信号に合成され、スピーカ160から発音される。
(5)撮像部130は、一般的な携帯電話に付属する既存のカメラを代用することが可能である。
【0024】
以上、この発明の一実施形態を説明したが、この発明は、この実施の形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計変更等があっても本発明に含まれる。例えば、上述の実施の形態では、まばたきにより文字を確定するものとしたが、まばたきの回数により文字の指定や表示形態を制御するものとしてもよい。例えば、まばたきを連続して2回行った場合には50音の一覧を表示し、連続して3回行った場合には数字を表示する等の制御があり得る。また、「まばたき」と「文字を見つめる時間」との組み合わせにより文字の確定等を制御するものとしてもよい。
【0025】
また、上述の実施形態では、視線入力された文字をスピーカから発音するものとしたが、メールなどの文字情報として外部に送信するようにしてもよい。この場合、視線入力処理部210により入力された文字は、制御部250の制御の下、通信部220に供給され、この通信部220を介して送信される。
また、音声合成機能付音源240により得られた音声信号を、音声処理部230を介して通信部220に供給するようにしてもよい。これにより、視線入力された文字列を音声情報として外部に送信することが可能になる。したがって、この場合、利用者が実際には発音することなく外部と通話することが可能になる。
【0026】
【発明の効果】
以上説明したように、この発明によれば、視線入力により文字を入力し、その文字を発音するようにしたので、場所を問わず、発声や手操作を要することなく、利用者のコミュニケーションを支援することが可能となる。
【図面の簡単な説明】
【図1】この発明の実施の形態に係る携帯端末装置の外観図である。
【図2】この発明の実施の形態に係る携帯端末装置のブロック図である。
【図3】この発明の実施の形態に係る携帯端末装置の動作の流れを示すフローチャートである。
【符号の説明】
100;携帯端末装置(携帯電話)、110;表示部、120;キー入力部、130;撮像部(CCDカメラ)、140;スピーカ(受話用)、150;マイクロホン(送話用)、160;スピーカ、170;アンテナ、210;視線入力処理部、220;通信部、230;音声処理部、240;音声合成機能付音源、250;制御部(CPU)、260;記憶部(RAM)、270;記憶部(ROM)、280;バイブレータ、290;バス。

Claims (3)

  1. 当該携帯端末装置の利用者に対し所定の配列を有する文字の一覧を表示する表示手段と、
    前記利用者の視線方向に基づき前記一覧内の文字を入力する視線入力手段と、
    前記視線入力手段により入力された文字を発音するための音声信号を合成する音声合成手段と、
    前記音声合成手段により合成された音声信号に基づき発音する発音手段と、
    を備えた携帯端末装置。
  2. 前記視線入力手段が、
    前記利用者の眼球を撮像する撮像部と、
    前記撮像部により撮像された画像から前記利用者の視線方向を検出し、該視線方向から入力すべき文字を特定する視線入力処理部と、
    を備えたことを特徴とする請求項1に記載された携帯端末装置。
  3. 前記視線入力手段が、
    前記利用者がまばたきする直前の視線の方向を検出することを特徴とする請求項2に記載された携帯端末装置。
JP2002362555A 2002-12-13 2002-12-13 携帯端末装置 Pending JP2004194207A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002362555A JP2004194207A (ja) 2002-12-13 2002-12-13 携帯端末装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002362555A JP2004194207A (ja) 2002-12-13 2002-12-13 携帯端末装置

Publications (1)

Publication Number Publication Date
JP2004194207A true JP2004194207A (ja) 2004-07-08

Family

ID=32760971

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002362555A Pending JP2004194207A (ja) 2002-12-13 2002-12-13 携帯端末装置

Country Status (1)

Country Link
JP (1) JP2004194207A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141441A (ja) * 2007-12-03 2009-06-25 Nec Corp 文字入力・機能操作装置、方法、プログラム及び携帯端末装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009141441A (ja) * 2007-12-03 2009-06-25 Nec Corp 文字入力・機能操作装置、方法、プログラム及び携帯端末装置

Similar Documents

Publication Publication Date Title
JP4241484B2 (ja) 携帯端末装置、着信応答メッセージ送信方法およびサーバ装置
US8082152B2 (en) Device for communication for persons with speech and/or hearing handicap
EP2574220A2 (en) Hand-held communication aid for individuals with auditory, speech and visual impairments
US20060074624A1 (en) Sign language video presentation device , sign language video i/o device , and sign language interpretation system
JP2019208138A (ja) 発話認識装置、及びコンピュータプログラム
JP2000068882A (ja) 無線通信装置
US9377922B2 (en) Aiding people with impairments
JP2010034695A (ja) 音声応答装置及び方法
JP2009178783A (ja) コミュニケーションロボット及びその制御方法
KR20200044947A (ko) 표시 제어 장치, 통신 장치, 표시 제어 방법 및 컴퓨터 프로그램
KR101609585B1 (ko) 청각 장애인용 이동 통신 단말기
US8892173B2 (en) Mobile electronic device and sound control system
US9078071B2 (en) Mobile electronic device and control method
JP2016139962A (ja) 携帯電話機
KR20070057351A (ko) 점자를 음성으로 변환하는 이동통신단말기
JP5582946B2 (ja) 携帯電子機器及び音声制御システム
JP2004194207A (ja) 携帯端末装置
KR102000282B1 (ko) 청각 기능 보조용 대화 지원 장치
JP7143579B2 (ja) 音声入力装置
KR20070071854A (ko) 이동통신 단말기의 청각장애인과 정상인 사이의 통화 보조방법
JP2005222136A (ja) 会話型翻訳装置
JP2010177774A (ja) 携帯電子機器及び音声出力調整方法
JP2007259427A (ja) 携帯端末装置
KR100553437B1 (ko) 음성 합성을 이용한 음성 메시지 전송 기능을 가지는무선통신 단말기 및 그 방법
JP4990483B2 (ja) 携帯端末装置