JP2005309952A - テキスト入力装置 - Google Patents
テキスト入力装置 Download PDFInfo
- Publication number
- JP2005309952A JP2005309952A JP2004128312A JP2004128312A JP2005309952A JP 2005309952 A JP2005309952 A JP 2005309952A JP 2004128312 A JP2004128312 A JP 2004128312A JP 2004128312 A JP2004128312 A JP 2004128312A JP 2005309952 A JP2005309952 A JP 2005309952A
- Authority
- JP
- Japan
- Prior art keywords
- mouth
- input
- mouth shape
- key
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Input From Keyboards Or The Like (AREA)
- Image Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
【課題】 キーの数が少ない携帯機器においても、1つのキーストロークで文章入力が可能なテキスト入力装置を提供する。
【解決手段】 テキスト入力装置100では、カメラ102が、ユーザの口領域を含む対象画像領域内の画像を撮影する。入力キーパッド104は、各々が複数の入力文字候補に対応する複数のキーを有する。携帯電話機110のCPU1104は、対象画像領域内において、口形状を検出し、口腔面積と口腔のアスペクト比によりマッピングされたマッピング情報に基づいて、検出された口形状と指示(たとえば、押下)されたキーとの組合せに応じて、対応する複数の入力文字候補のうち、選択された文字データを生成する。
【選択図】 図1
【解決手段】 テキスト入力装置100では、カメラ102が、ユーザの口領域を含む対象画像領域内の画像を撮影する。入力キーパッド104は、各々が複数の入力文字候補に対応する複数のキーを有する。携帯電話機110のCPU1104は、対象画像領域内において、口形状を検出し、口腔面積と口腔のアスペクト比によりマッピングされたマッピング情報に基づいて、検出された口形状と指示(たとえば、押下)されたキーとの組合せに応じて、対応する複数の入力文字候補のうち、選択された文字データを生成する。
【選択図】 図1
Description
この発明は、携帯電話や携帯型のコンピュータ等の機器でテキスト入力を行なう際において、当該機器と人間との間でテキスト入力のためのインタフェースをとるテキスト入力装置の構成に関する。
デスクトップ型のコンピュータのユーザインタフェースにおいて、入力デバイスは、従来、たとえば、キーボードやマウスといった人間が手で操作するデバイスが用いられることが一般的である。
一方で、近年、インターネットやモバイルコミュニケーションの媒体が広く用いられることになったことで、文章の書き手や読み手の数は、爆発的に増加している。このときも、多くの文章は、手の動作によって生成される。
しかしながら、どのような人間の動作も、潜在的には文章入力(テキスト入力)のために使用することが可能である。自動音声認識および読唇術は、会話における口の運動をテキスト入力に用いるための研究と言える。しかし、十分に満足のいく音声認識による文章入力システムは実現されておらず、かつ、ロバストでリアルタイムの自動読唇術も、まだ実用段階にあるとは言えない。
そこで、目の動き、特に視線方向と口の形状認識とを組み合わせた文字入力装置などが提案されている(たとえば、特許文献1を参照)。
特開2002−269544号公報明細書
しかしながら、視線の検出は、一般には、単に対象物を注視した状態と、装置に対する何らかの意図を持って見ているのかを判別することが難しい、などの問題がある。
本発明の目的は、キーの数が少ない携帯機器においても、1つのキー操作(たとえば、キーストローク)で文章入力が可能なテキスト入力装置を提供することである。
この発明のある局面に従うと、テキスト入力装置であって、ユーザの口領域を含む対象画像領域内の画像を撮影する撮影手段と、対象画像領域内において、口形状を検出する検出手段と、口形状の複数のパターンをマッピングしたマッピング情報を予め格納するための記憶手段とを備え、マッピング情報は、口腔面積と口腔のアスペクト比によりマッピングされており、各々が複数の入力文字候補に対応する複数のキーを有し、ユーザからの入力を受けるキー入力手段と、マッピング情報に基づいて、検出された口形状と指示されたキーとの組合せに応じて、対応する複数の入力文字候補のうち、選択された文字データを生成するためのテキスト変換手段と、選択された文字データに対応する文字を表示する表示手段とをさらに備える。
好ましくは、複数のキーの各々は、複数のアルファベットに対応しており、テキスト変換手段は、口形状のパターンに応じて、指示されたキーに対応する複数のアルファベットのうちの1つを選択する。
好ましくは、複数のキーは、日本語のかなの50音表の異なる子音に行にそれぞれ対応しており、マッピング情報は、日本語の母音の発音時の口形状に基づいてマッピングされており、テキスト変換手段は、口形状のパターンに応じて、指示されたキーに対応するかなのうち、母音の口形状に対応する1つを選択する。
[実施の形態1]
[ハードウェア構成]
以下、本発明の実施の形態にかかるテキスト入力装置について説明する。このテキスト入力装置は、中央演算処理ユニット(CPU:Central Processing Unit)により制御される携帯機器上で実行されるソフトウェアにより実現されるものであって、人物の顔の映像から、口の部分のうちの口腔領域(空いた口の領域)を抽出して、テキスト入力制御のための信号を生成するものである。
[ハードウェア構成]
以下、本発明の実施の形態にかかるテキスト入力装置について説明する。このテキスト入力装置は、中央演算処理ユニット(CPU:Central Processing Unit)により制御される携帯機器上で実行されるソフトウェアにより実現されるものであって、人物の顔の映像から、口の部分のうちの口腔領域(空いた口の領域)を抽出して、テキスト入力制御のための信号を生成するものである。
すなわち、本発明では、手および口の協調した動作を使用することによる文字入力方法を実現する。開いた口の口腔の形状パラメータが測定され、その測定結果は、キーパッドからの入力と結び付けられて、入力状態の離散的な組としてマッピングされ、複数のシンボルの明瞭な入力を可能とする。このような方法は、アルファベットの文章入力システム(ローマ字アルファベット)および音節の文章入力システム(日本語のひらがな)として実装される。
図1は、本発明のテキスト入力装置100の構成を示す概略ブロック図である。
特に限定されないが、このテキスト入力装置100は、たとえば、携帯電話機などのユーザインタフェースとして実装される。そこで、以下の説明では、テキスト入力装置100が携帯電話機に実装されるものとして説明する。
しかし、一般には、携帯機器において、仮にフルキーボードが搭載されている場合でも、片手入力が可能なことを利用して、携帯電話機の入力キーパッドに類似のキー割り当てを行ってテキスト入力を行なう場合や、PDAなどで、キーサイズが小さいためにキー操作が必ずしも快適といえない場合にも、本発明のテキスト入力装置を用いることが可能である。
図1を参照して、このテキスト入力装置100は、携帯電話機110の表示装置としてのディスプレイ108と、携帯電話機110の入力装置の1つとしての入力キーパッド104と、携帯電話機110内において、バスBSそれぞれに接続された、CPU(Central Processing Unit )1104と、ROM(Read Only Memory)1106と、RAM(Random Access Memory)1108と、入力装置からの信号を受け取り、またディスプレイ108との間でデータを授受するためのインタフェース部1102とを含んでいる。
なお、携帯電話機110の通話を行なうための構成については周知であるので、図1においては、その記載を省略している。携帯電話機などの携帯機器では、ROM1106は、電気的にデータの書き換えの可能なフラッシュメモリなどの不揮発性メモリが用いられる。このROM1106に格納されたソフトウエアは、たとえば、RAM1108上に展開されてCPU1104で実行される。
さらに、インタフェース部1102は、ユーザ2の頭に装着されたヘッドセットから伸びたアームによりユーザ2の口付近の画像を取込むためのカメラ(以下、「ヘッドマウントカメラ」と呼ぶ)102からの画像を取り込む。この実施の形態のシステムでは、カメラ102としては、たとえば、CCD(固体撮像素子)を含むビデオカメラを用いる。また、口の画像を確実に得るという観点からは、ヘッドマウントカメラが望ましいが、たとえば、携帯電話機に搭載されている静止画および動画の撮影用のカメラをヘッドマウントカメラの代わりに用いることも可能である。
なお、図示しないが、携帯電話機110には、メモリカードドライブなど、外部の記録媒体からのデータを取り込むための装置が設けられていてもよい。
テキスト入力装置100においてテキスト入力機能を実現する主要部は、CPU1104等のハードウェアと、CPU1104により実行されるソフトウェアとにより実現される。一般的にこうしたソフトウェアは記憶媒体に格納されて流通し、記憶媒体から読取られてROM1106に一旦格納される。または、当該装置がネットワークに接続されている場合には、ネットワーク上のサーバから一旦ROM1106にコピーされる。そうしてさらにROM1106からRAM1108に読出されてCPU1104により実行される。
図1に示した携帯電話機のハードウェア自体およびその動作原理は一般的なものである。したがって、本発明の最も本質的な部分は、ROM1106等の記憶媒体に記憶されたソフトウェアである。
図2は、本発明に係るテキスト入力装置の使用状況を説明するための図である。
上述したとおり、ユーザ2の頭に装着されたヘッドセットにより支持されるヘッドマウントカメラ102が、口領域の画像を獲得するために用いられる。このことは、カメラ102が撮影した画像から、システム100が頭を検出して追跡するという必要をなくすので、画像処理のタスクの複雑さを低減する。さらに、ユーザ2にとってみれば、携帯電話機110本体に実装されたカメラを使う場合に比べて、より動きやすくかつ快適であるという効果もある。
ヘッドマウントカメラ102は、一般的なマイクロフォン付きのヘッドセットにおいて、変形可能なアーム先端に装着されたマイクロフォンを、たとえば、ウェブカメラ等で置き換えたものである。この変形可能なアームは、ユーザに容易にカメラの位置を調整することを可能とする。また、ヘッドマウントカメラ102と携帯電話機110との間のデータの通信は、有線により行なってもよいが、無線により行なうことも可能である。
[ソフトウェア構成]
図3は、図1に示した携帯電話機110のCPU1104上で動作するソフトウェアの構成を説明するための機能ブロック図である。
図3は、図1に示した携帯電話機110のCPU1104上で動作するソフトウェアの構成を説明するための機能ブロック図である。
CPU1104上でテキスト入力のために動作するソフトウェアは、大きくは、口形状認識処理部1200と、テキスト変換モジュール1300とを含む。
図3を参照して、ヘッドマウントカメラ102から入力された画像信号は、口形状認識処理部1200において、画像キャプチャ部1202により画像データ(画素ごとのデジタルデータ)として取り込まれ(キャプチャされ)た後、画像反転部1204において、垂直線に対して反転されて表示部108に表示される。このような反転処理により、ユーザ2によって、カメラの位置を直感的に調整することを可能にしている。なお、実際には、キャプチャされた画像データは、表示部108に対応する画像が表示されるとともに、RAM1108の所定の領域に格納されて、その後の演算処理を受けることになる。
キャプチャされた画像データは、口領域抽出部1206において、画素(ピクセル)にそれぞれが対応している2値の数値アレイに変換され、この2値の数値アレイは、空いた口の部分(口腔に対応する部分)と他の部分とに分けられる。
空いた口の領域の面積は、口腔内の画素数を加算することによって計算される。このような空いた口の領域の面積は、出力正規化部1208により、テキスト入力を制御する信号とするために正規化され、テキスト変換モジュール1300のようなアプリケーションプログラムに伝送される。
テキスト変換モジュール1300は、口形状認識処理部1200からの信号と、入力キーパッド104からの信号を受けて、対応する文字に変換する。
[口腔の色分割の処理]
以下では、図3に示した口領域抽出部1206の動作についてさらに説明する。
以下では、図3に示した口領域抽出部1206の動作についてさらに説明する。
たとえば、顔の動きを認識するためのアルゴリズムに対しては、既に重要な技術の報告がある。但し、本発明においては、口の形状を認識するということがその目的とする作業ではなく、口の形状に基づいて、滑らかで再現性があり、かつユーザ2にとって直感的な操作を可能とするパラメータの抽出を可能とする処理を実現することにある。
口領域抽出部1206は、以下に説明するような、色に基づいた分割アルゴリズムを用いることで、画像中の口腔の領域(空いた口の領域)を抽出する。
はじめに、口腔の画素を検出するのに適切な入力画像の情報の表現として、各画素について、赤色成分および輝度I(I=R+G+B;R:赤色信号,G:緑色信号,B:青色信号)とを決定する。輝度は、口腔が通常の照明条件においては影のように見えることから有益な情報を与える。口の内側は、また、相対的に高い赤色成分によって特徴付けられる。
口領域抽出部1206では、たとえば、口腔は、以下の条件を満たすものとして分割される。
I<Imax, R>Rmin
ここで、値ImaxおよびRminは、輝度Iと赤色信号成分Rのしきい値である。
ここで、値ImaxおよびRminは、輝度Iと赤色信号成分Rのしきい値である。
なお、輝度と赤色成分のしきい値は、手動で調整することが可能である。また、適応的にこのようなしきい値を変更することが可能なソフトウェアを実装することもできる。さらに、画像処理は、開いた口に対応する抽出された領域を選択し、画像の変動および陰によって生じるノイズの除去を行なう。開いた状態の口の陰の領域は、領域抽出された部分の総ピクセル数として計算され、アスペクト比は、このような領域を囲む矩形の領域の高さと幅として計算される。このようなアルゴリズムは、ある照明環境下では、1秒間に30フレームでロバストに動作する。
このような口腔領域の面積およびアスペクト比のパラメータの望ましい最大値および最小値は、キャリブレーションを行なうステップにおいてユーザにより入力される。
[文字入力システム]
このような口形状を用いた文字入力システムを用いると、入力されたM個の口の状態と押されたK個のキーの状態とに従って、シンボルが選択される。口によるm番目の入力状態とk番目のキーの状態とにより、トータルでM×K個のシンボルが、(m,k)の組合せとしてマッピングされる。
このような口形状を用いた文字入力システムを用いると、入力されたM個の口の状態と押されたK個のキーの状態とに従って、シンボルが選択される。口によるm番目の入力状態とk番目のキーの状態とにより、トータルでM×K個のシンボルが、(m,k)の組合せとしてマッピングされる。
ローマ字のアルファベットあるいは日本語のひらがなを音節として入力するために使用するためのシステムが、以下で説明されるように実装されている。
[アルファベットのテキスト入力(英語の場合)]
アルファベットの入力システムでは、口の形状と文字のマッピングとは任意の組合せをとることができる。
アルファベットの入力システムでは、口の形状と文字のマッピングとは任意の組合せをとることができる。
たとえば、4つの口形状が、電話機のキーパッドにおける文字の順番をコードする。
図4は、このような口の形状と文字の順序との関係(図4(a))ならびに入力キーパッドのキー配置(図4(b))を示す図である。
すなわち、キーパッドにおける各キーに対応した最初の文字(たとえば、a、d、g)が、それに対応したキーを押下することによって選択され、一方で、口は閉じた状態(1番目の状態)とされる。各キーの2番目の文字(たとえば、b,e,h)は、やや開いた口の状態(2番目の状態)を用いることで選択される。
さらに、各キーの3番目の文字(たとえば、c,f,i)は、開いた状態(3番目の状態)の口によって選択される。さらに、たとえば、“s”または“z”を入力するためには、唇はすぼまされた状態(4番目の状態)で、キーの“7”または“9”が押下される。
図5は、このような口形状を用いた入力システムによる文字“u”の入力の概念を図示するものである。
数字キーの“8”を押下することで、入力マップにおいて文字の(t,u,v)が選択される。キーから指を離すことが、その瞬間における口の陰の部分(口腔領域)の面積および口腔領域のアスペクト比に対応し文字を選択することになる。入力される領域のマッピングは、図5の右下に選択的に示されている。すなわち、横軸に口腔の領域面積をとり、縦軸にアスペクト比をとった場合に、各々、文字の(t,u,v)に対応する領域がマッピングされており、このようなマッピングデータが予めROM1106等にキャリブレーション処理を行なった結果として格納されている。他のキーについても同様のマッピングが可能である。
[音節のテキスト入力(日本語の場合)]
日本語は、周知のとおり、3つの文章システムを混合的に用いている。1つは、漢字であり、2つの類似の音節文字体系として「ひらがな」と「かたかな」とがある。このうち、ひらがなは、すべての3つの文字体系において、シンボルの入力のために用いることができる。
日本語は、周知のとおり、3つの文章システムを混合的に用いている。1つは、漢字であり、2つの類似の音節文字体系として「ひらがな」と「かたかな」とがある。このうち、ひらがなは、すべての3つの文字体系において、シンボルの入力のために用いることができる。
図6は、基本的なひらがなの音節文字体系(図6(a))と、入力キーパッドのキー配置(図6(b))を示す図である。
日本語の音節の構造は、非常に簡単なものであって、ほとんど大多数の音節はCVという形態をとる(ここで、Cは、子音であり、Vは母音である)。さらに、母音は5つが存在するのみである(a,i,u,e,o)。
キーボードからの入力の場合でも、「かな」の子音および母音を入力するために、ローマ字のアルファベットが用いられることが多い。たとえば、ひらがなの“ra”を入力するためには、“r”およびその後に“a”が押下される。かなは、選択メニューによって、漢字に変換され、さらに、入力を支援するために、しばしば予測アルゴリズムが使用される。
携帯電話機においては、かなは、従来は「マルチタップ」を用いることで直接に入力される。すなわち、ここで、「マルチタップ」とは、50音配列の各行に対応するキーについて、5つの可能な母音にわたって、キーを繰返し巡回的に押下することを意味している。
ところで、図6(a)に示すような日本語の音節文字体系の構造は、音声学的に(音声どおりに)動かされる口形状を用いた文字入力システムの入力スキームを可能とするものである。
すなわち、本発明のテキスト入力装置100では、日本語のテキスト入力モードにおいては、口の領域とひらがなの母音のカテゴリのアスペクト比のマッピングは、5つの母音の発音する際の口の形状に基づいている。
図7は、ひらがなの母音を普通に発音する際の口腔領域とアスペクト比のマッピングを半定量的に示す図である。
図7において、2つの入力パラメータの境界の簡単な区分けは、それぞれ、図6(a)の列(母音方向)の区分の条件を満たす。そこで、本発明では、ひらがなの母音を普通に発音する際の口形状を、図6(a)の50音表の母音方向の区分を示す入力として使用する。
図8は、ユーザが、ひらがなの「さ(sa)」を入力する場合を示す概念図である。ユーザが口形状をあたかも母音の“a”を発音するような形状とし、一方で、数字キーパッド上の“3”キーを押す。キーを放す時点で、「さ(sa)」が入力される。
さらに、同一のキーを押下した状態で、口の形状を“e”母音の形状とすることで「せ(se)」が選択される。また、同一の口形状において、“7”キーを押下することで、「め(me)」が選択される。
ひらがなを完全にコードするためにはさらにいくつかのキーが必要となる。有声音のgeや撥音のpaというような子音を発音上で区別するマークをコードするものが必要である。さらには、かなの音節体系の下の方に存在している「“っ”や“ゃ”」などに用いるキーが必要である。必要に応じて、携帯電話機のキーのうち、数字キー以外のキーをこのようなコードのためのキーに割り当てることができる。
漢字への変換は、従来と同様の変換方法を追加することで、このような機能を持たせることも可能である。
(比較結果)
以下では、一例としてマルチタップを用いた日本語の文字入力と、口形状を用いた文字入力システムとの比較結果について説明する。
以下では、一例としてマルチタップを用いた日本語の文字入力と、口形状を用いた文字入力システムとの比較結果について説明する。
それぞれマルチタップ(MultiTap)と本発明の入力方法(マウスタイプ(MouthType)と呼ぶ)を用いた場合において、各ブロックごとに8つのフレーズを持った2つのブロックの総計10セッションについて実験を行なった。入力方法を、ブロックごとに変更している。
このテストでは、正確な文字入力が、要求されるテストとなっている。すなわち、ユーザは、入力ミスがあると、ビープ音により警告が発せられ、そのような誤記を削除することが要求される。入力を続けるためには、正しい文字の入力を行なわなければならない。マルチタップを用いた場合の冗長なキー押下についてはエラーとしてはカウントされていない。キー押下およびキーの解放はタイムスタンプとともにログがとられた。
(日本語の文章入力)
一人の被験者により実験を行なった。この被験者は、マルチタップと予測入力アルゴリズムを用いて、携帯電話によって文字入力を行なうという経験を有している。そして、5ないし15の日本語のメッセージを1週間当たりに送信している。各17個のかなのフレーズが、80個の俳句の組から選択された。全体としての誤り率はマウスタイプに対しては8.7%であり、マルチタップに対しては1.2%である。
一人の被験者により実験を行なった。この被験者は、マルチタップと予測入力アルゴリズムを用いて、携帯電話によって文字入力を行なうという経験を有している。そして、5ないし15の日本語のメッセージを1週間当たりに送信している。各17個のかなのフレーズが、80個の俳句の組から選択された。全体としての誤り率はマウスタイプに対しては8.7%であり、マルチタップに対しては1.2%である。
図9は、本発明のマウスタイプを用いた場合の母音ごとの誤り率を示す図である。図9に示すように、入力間でより内側(深い側)に存在する母音の方がより高い誤り率を記録している。しかし、誤り率は、このテストでも、12.9%以下に抑えられている。
図10は、キー入力速度の改善の様子をマルチタップとマウスタイプとを比較して示す図である。
すべてのセッションにおいて、マウスタイプの方がマルチタップよりも十分に速いスピードを達成している。
マウスタイプの使用を学習するということは、以下の2つの技能を獲得することを含んでいる。(a)口を、文字または母音を明瞭とするような形状とし、(b)手動および口の動作を協調させることが必要である。どちらの技能も、熟練することには特に困難を要するものではない。さらに、マウスタイプは、マルチタップよりも英語入力および日本語入力のどちらにおいてもより速い入力を可能とするものである。特に、(a)の機能に関して言えば、日本人の話者に対しては、ほとんど新たな内容を学習する必要がない。なぜならば、このような口形状は、音声学的な発声にそのまま基づいたマッピングに対応しているからである。
以上のようなテキスト入力装置により、携帯機器に多く見られる小さなキーボードを用いた場合であっても1つのキーストロークでテキスト入力が可能になる。
さらに、このようなテキスト入力方法を行なうことにより、音節文字体系を有したシンボルのアルファベットによる入力に対して、不自然な要求を行なうことなく音節入力が可能なシステムを提供することができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
2 ユーザ、100 テキスト入力装置、102 ヘッドマウントカメラ、104 入力キーパッド、108 ディスプレイ、110 携帯電話機、1102 インタフェース部、1104 CPU、1106 ROM、1108 RAM。
Claims (3)
- ユーザの口領域を含む対象画像領域内の画像を撮影する撮影手段と、
前記対象画像領域内において、口形状を検出する検出手段と、
前記口形状の複数のパターンをマッピングしたマッピング情報を予め格納するための記憶手段とを備え、
前記マッピング情報は、口腔面積と口腔のアスペクト比によりマッピングされており、
各々が複数の入力文字候補に対応する複数のキーを有し、ユーザからの入力を受けるキー入力手段と、
前記マッピング情報に基づいて、前記検出された口形状と指示されたキーとの組合せに応じて、対応する前記複数の入力文字候補のうち、選択された文字データを生成するためのテキスト変換手段と、
前記選択された文字データに対応する文字を表示する表示手段とをさらに備える、テキスト入力装置。 - 前記複数のキーの各々は、複数のアルファベットに対応しており、
前記テキスト変換手段は、前記口形状の前記パターンに応じて、指示された前記キーに対応する前記複数のアルファベットのうちの1つを選択する、請求項1記載のテキスト入力装置。 - 前記複数のキーは、日本語のかなの50音表の異なる子音に行にそれぞれ対応しており、
前記マッピング情報は、日本語の母音の発音時の口形状に基づいてマッピングされており、
前記テキスト変換手段は、前記口形状の前記パターンに応じて、指示された前記キーに対応するかなのうち、前記母音の口形状に対応する1つを選択する、請求項1記載のテキスト入力装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004128312A JP2005309952A (ja) | 2004-04-23 | 2004-04-23 | テキスト入力装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004128312A JP2005309952A (ja) | 2004-04-23 | 2004-04-23 | テキスト入力装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005309952A true JP2005309952A (ja) | 2005-11-04 |
Family
ID=35438633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004128312A Withdrawn JP2005309952A (ja) | 2004-04-23 | 2004-04-23 | テキスト入力装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005309952A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016224608A (ja) * | 2015-05-28 | 2016-12-28 | 国立大学法人九州工業大学 | 文字列入力装置 |
CN115857706A (zh) * | 2023-03-03 | 2023-03-28 | 浙江强脑科技有限公司 | 基于面部肌肉状态的文字输入方法、装置及终端设备 |
-
2004
- 2004-04-23 JP JP2004128312A patent/JP2005309952A/ja not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016224608A (ja) * | 2015-05-28 | 2016-12-28 | 国立大学法人九州工業大学 | 文字列入力装置 |
CN115857706A (zh) * | 2023-03-03 | 2023-03-28 | 浙江强脑科技有限公司 | 基于面部肌肉状态的文字输入方法、装置及终端设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106653052B (zh) | 虚拟人脸动画的生成方法及装置 | |
EP3155500B1 (en) | Portable electronic equipment and method of operating a user interface | |
JP2022116104A (ja) | リアルタイム手書き認識の管理 | |
CN101067780B (zh) | 智能设备的文字输入系统及方法 | |
CN105518657B (zh) | 信息处理设备、信息处理方法及计算机可读记录介质 | |
US20170364484A1 (en) | Enhanced text metadata system and methods for using the same | |
EP1530122A2 (en) | Apparatus and method for character recognition | |
KR101819457B1 (ko) | 음성 인식 장치 및 시스템 | |
US7702506B2 (en) | Conversation assisting device and conversation assisting method | |
JP2003216955A (ja) | ジェスチャ認識方法、ジェスチャ認識装置、対話装置及びジェスチャ認識プログラムを記録した記録媒体 | |
KR102193029B1 (ko) | 디스플레이 장치 및 그의 화상 통화 수행 방법 | |
US10304439B2 (en) | Image processing device, animation display method and computer readable medium | |
US20200342896A1 (en) | Conference support device, conference support system, and conference support program | |
WO2018079332A1 (ja) | 情報処理装置及び情報処理方法 | |
US20120088211A1 (en) | Method And System For Acquisition Of Literacy | |
US9298971B2 (en) | Method and apparatus for processing information of image including a face | |
Lyons et al. | Mouthtype: Text entry by hand and mouth | |
US11900931B2 (en) | Information processing apparatus and information processing method | |
JP2002244842A (ja) | 音声通訳システム及び音声通訳プログラム | |
CN113822187A (zh) | 手语翻译、客服、通信方法、设备和可读介质 | |
CN113851029A (zh) | 一种无障碍通信方法和装置 | |
JP2005309952A (ja) | テキスト入力装置 | |
JP2023046127A (ja) | 発話認識システム、通信システム、発話認識装置、移動体制御システム、発話認識方法及びプログラム | |
JP2005107595A (ja) | 自動翻訳装置 | |
JP7468360B2 (ja) | 情報処理装置および情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20070703 |