JP2017004298A - 文字入力システム、文字入力方法、及び、コンピュータプログラム - Google Patents
文字入力システム、文字入力方法、及び、コンピュータプログラム Download PDFInfo
- Publication number
- JP2017004298A JP2017004298A JP2015118285A JP2015118285A JP2017004298A JP 2017004298 A JP2017004298 A JP 2017004298A JP 2015118285 A JP2015118285 A JP 2015118285A JP 2015118285 A JP2015118285 A JP 2015118285A JP 2017004298 A JP2017004298 A JP 2017004298A
- Authority
- JP
- Japan
- Prior art keywords
- character
- data
- sheet
- registered
- vibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Character Discrimination (AREA)
Abstract
【課題】ユーザが文字の入力操作をジェスチャーにより行なう際に、ユーザが意図する文字を表示装置に表示すること。【解決手段】振動センサ(140)は、シートがシート取付部(130)に取り付けられているときに、ユーザが指先またはペン先によりシートに触れながら文字を描画するジェスチャーを行なった場合に、指先またはペン先とシートとの摩擦により生じるレベルを表す振動データを出力する。制御装置(120)は、振動データを時系列で収集する振動データ収集部(121)と、時系列の振動データのレベルに基づいて、時間とシート上の座標とより文字を表すベクトルデータを生成するベクトルデータ生成部(122)と、ベクトルデータが表す文字を表示装置(40)に出力するデータ出力部(123)と、を具備している。【選択図】図1
Description
本発明は、ユーザが文字の入力操作をジェスチャーにより行なう文字入力システム、文字入力方法、及び、コンピュータプログラムに関する。
ユーザが文字の入力操作をジェスチャーにより行なう技術が特許文献1に記載されている。特許文献1に記載された技術では、表示装置(ディスプレイ)と、カメラ(動画撮影用カメラ)と、マイクロホンと、コンピュータとを具備している。カメラは、ユーザが指先により文字を描画するジェスチャーを行なった場合に、ジェスチャーを撮影してジェスチャーの画像を表す画像データを出力する。マイクロホンは、ユーザがジェスチャーを行なう際に発する音声を音声データとして収音する。コンピュータは、複数の文字が登録されたデータベースを備えている。コンピュータは、画像データと音声データとの組み合わせにより、データベースに登録された複数の文字のうちの1つの文字を判定し、その文字を表示装置に表示する。
しかしながら、特許文献1に記載された技術では、コンピュータが画像データと音声データとを収集するものであるため、ユーザは、指先により文字を描画するジェスチャーを行なう際に、その文字を発声しなければならない。例えば、ユーザは、日本語のひらがなの文字「い」を描画するジェスチャーを行なう際に、その文字「い」を発声しなければならない。このように、ユーザは、ジェスチャーと発声という2つの動作を行なう必要があるため、ユーザにとっては、面倒であり、煩わしいことである。また、ユーザの喉の調子によって、ユーザが発した声が、ジェスチャーに関連する声にならない可能性がある。
また、特許文献1に記載された技術において、ユーザは、指先により文字を描画するジェスチャーを行なうため、コンピュータが収集する画像データは、文字が撮影されるわけではない。すなわち、図22に示されるように、画像データは、ジェスチャーの画像(ユーザの指先の画像)を表している。したがって、図22に示されるように、コンピュータでは、時系列の画像データが表すジェスチャーの画像は、ジェスチャーの軌跡を表す軌跡データとして処理される。軌跡データは文字ではないため、コンピュータは、単純に、軌跡データと音声データとの組み合わせることができず、音声データによる音声認識に基づいた文字判定を行なうことになる。この場合、軌跡データと音声データとを組み合わせることによる利点がない。
また、特許文献1に記載された技術において、コンピュータは、音声データによる音声認識に基づいた文字判定を行なう場合、音声データが表す音声により、データベースに登録された複数の文字のうちの1つの文字に絞ることが可能である。しかしながら、図22に示されるように、「い」という音には、日本語のひらがなの文字「い」、カタカナの文字「イ」、アルファベットの文字「e」などが存在する。そのため、ユーザが文字「い」の入力操作をジェスチャーにより行なう際に、コンピュータは、ユーザが意図する文字「い」を表示装置に表示できるとは限らない。
また、特許文献1に記載された技術において、コンピュータは、軌跡データによる画像解析に基づいた文字判定を行なう場合、軌跡データが表すジェスチャーの軌跡により、データベースに登録された複数の文字のうちの1つの文字に絞ることが可能である。しかしながら、図22に示されるように、軌跡データが表すジェスチャーの軌跡には、アルファベットの大文字「S」、アルファベットの小文字「s」、数字の「5」などが類似する。そのため、ユーザが文字「い」の入力操作をジェスチャーにより行なう際に、コンピュータは、ユーザが意図する文字「い」を表示装置に表示できるとは限らない。
本発明は、上記従来の問題点に鑑みてなされたものであって、ユーザが文字の入力操作をジェスチャーにより行なう際に、ユーザが意図する文字を表示装置に表示することができる文字入力システム、文字入力方法、及び、コンピュータプログラムを提供することを目的とする。
本発明の文字入力システムは、表示装置と、制御装置と、シートを取り付け可能なシート取付部と、前記シートが前記シート取付部に取り付けられているときに、ユーザが指先またはペン先により前記シートに触れながら文字を描画するジェスチャーを行なった場合に、前記指先または前記ペン先と前記シートとの摩擦により生じるレベルを表す振動データを出力する振動センサと、を具備し、前記制御装置は、前記振動データを時系列で収集する振動データ収集部と、前記時系列の振動データのレベルに基づいて、時間と前記シート上の座標とより前記文字を表すベクトルデータを生成するベクトルデータ生成部と、前記ベクトルデータが表す前記文字を前記表示装置に出力するデータ出力部と、を具備することを特徴とする。
本発明の文字入力方法は、表示装置と、制御装置と、シートを取り付け可能なシート取付部と、振動センサと、を具備するシステムを用いる文字入力方法であって、前記シートが前記シート取付部に取り付けられているときに、前記ユーザが指先またはペン先により前記シートに触れながら文字を描画するジェスチャーを行なった場合に、前記振動センサが、前記指先または前記ペン先と前記シートとの摩擦により生じるレベルを表す振動データを出力するステップと、前記制御装置が、前記振動データを時系列で収集する振動データ収集ステップと、前記制御装置が、前記時系列の振動データのレベルに基づいて、時間と前記シート上の座標とより前記文字を表すベクトルデータを生成するベクトルデータ生成ステップと、前記制御装置が、前記ベクトルデータが表す前記文字を表示装置に出力する出力ステップと、を具備することを特徴とする文字入力方法。
本発明のコンピュータプログラムは、前記文字入力方法において、前記制御装置が行なう各ステップをコンピュータに実行させることを特徴とする。
本発明によれば、ユーザが文字の入力操作をジェスチャーにより行なう際に、ユーザが意図する文字を表示装置に表示することができる。
以下、図面を参照しながら本発明の実施形態について説明する。
[第1実施形態]
図1は、本発明の第1実施形態に係る文字入力システムの構成を示すブロック図である。図1に示されるように、本発明の第1実施形態に係る文字入力システムは、第1の情報処理装置1と、第2の情報処理装置100と、を具備している。第1の情報処理装置1と第2の情報処理装置100とはネットワークNEを介して接続されている。
図1は、本発明の第1実施形態に係る文字入力システムの構成を示すブロック図である。図1に示されるように、本発明の第1実施形態に係る文字入力システムは、第1の情報処理装置1と、第2の情報処理装置100と、を具備している。第1の情報処理装置1と第2の情報処理装置100とはネットワークNEを介して接続されている。
図1に示されるように、第1の情報処理装置1は、記憶装置10と、制御装置20と、入力装置30と、表示装置40と、を備えている。制御装置20は、CPU(Central Processing Unit)である。記憶装置10にはコンピュータプログラムが登録され、制御装置20は、そのコンピュータプログラムを実行する。入力装置30としては、キーボード、マウスがあげられる。ユーザが入力装置30を操作した場合、制御装置20は、入力装置30の操作に応じてコンピュータプログラムを実行し、その実行結果を表示装置40に表示する。制御装置20は、データ受取部21と、表示制御部22と、を備えている。制御装置20の各構成の動作については後述する。
図1に示されるように、第2の情報処理装置100は、記憶装置110と、制御装置120と、を備えている。制御装置120は、CPUである。記憶装置110にはコンピュータプログラムが登録され、制御装置120は、そのコンピュータプログラムを実行する。制御装置120は、振動データ収集部121と、ベクトルデータ生成部122と、データ出力部123と、を備えている。制御装置120の各構成の動作については後述する。
図1に示されるように、第2の情報処理装置100は、更に、シート取付部130と、振動センサ140と、を備えている。
図2〜4は、本発明の第1実施形態に係る文字入力システムにおいて、シート50とシート取付部130と振動センサ140との配置、及び、振動データ60を説明するための図である。
図2〜4に示されるように、シート取付部130は、シート50を取り付け可能に構成され、振動センサ140は、シート取付部130に設けられている。シート50は、ユーザが両手で支える必要があるか否かにより、シート取付部130、振動センサ140の仕様が異なる。そこで、(A)シート50は、用紙のように、ユーザが両手で支える必要がある場合と、(B)シート50は、プラスティック等の材料で形成されたような所定の硬度を有していて、ユーザが両手で支える必要がない場合とに分けて説明する。
まず、(A)シート50は、所定の硬度を有してなく、ユーザが両手で支える必要がある場合、図2〜3に示されるように、シート取付部130は、シート50の1辺に取り付けられる。例えば、シート50の長辺方向をX方向とし、短辺方向をY方向とした場合、シート取付部130は、シート50のX方向を表す軸(X軸)に設けられている。振動センサ140は、シート取付部130に、シート50のX方向を左右に分割するように2つ配置されてもよいし、X軸の座標を構成するようにシート50のX方向に1番目から最終番目まで一列に配置されてもよい。
図3に示されるように、振動センサ140は、シート50がシート取付部130に取り付けられているときに、ユーザが指先またはペン先によりシート50に触れながら手書きで文字を描画するジェスチャーを行なった場合に、振動データ60を制御装置120に出力する。振動データ60は、指先またはペン先とシート50との摩擦により生じる摩擦振動または摩擦音のレベル(振幅)を表している。振動データ60のレベルは、振動センサ140に近いほど高く、振動センサ140から遠いほど低くなり、これを振動センサ140が参照することで、シート50のY方向を表す軸(Y軸)の座標に相当する情報として取得される。振動データ60のレベルは、図3においては、線形関数を適用するように処理されるが、振動センサ140内では、距離に応じた特性関数を用意することで、シート材質により特性が異なる場合にも対応することができる(図示せず)。
次に、(B)シート50は、所定の硬度を有していて、ユーザが両手で支える必要がない場合、図4に示されるように、シート取付部130は、シート50の交わる2辺に取り付けられる。例えば、シート50の長辺方向をX方向とし、短辺方向をY方向とした場合、シート取付部130は、シート50のX方向を表す軸(X軸)と、シート50のY方向を表す軸(Y軸)とに設けられている。例えば、振動センサ140は、シート取付部130のX方向に、X軸の座標を構成するようにシート50のX方向に1番目から最終番目まで一列に配置され、シート取付部130のY方向に、Y軸の座標を構成するようにシート50のY方向に1番目から最終番目まで一列に配置されている。
図4に示されるように、振動センサ140は、シート50がシート取付部130に取り付けられているときに、ユーザが指先またはペン先によりシート50に触れながら手書きで文字を描画するジェスチャーを行なった場合に、振動データ60を出力する。振動データ60は、指先またはペン先とシート50との摩擦により生じる摩擦振動または摩擦音のレベル(振幅)を表している。振動データ60のレベルは、図3の場合と同様に、振動センサ140が配置された座標に相当する情報として取得される。
シート50には色がついていてもよいし、シート50は透明でも半透明でもよい。例えば、ユーザが、シート50越しに、第1の情報処理装置1の表示装置40に表示される画面を見ながら、シート50に対してジェスチャーを行ないたい場合は、シート50は透明であることが好ましい。
次に、本発明の第1実施形態に係る文字入力システムの動作について説明する。
図5は、本発明の第1実施形態に係る文字入力システムの動作を示すフローチャートである。図6は、本発明の第1実施形態に係る文字入力システムにおける時系列の振動データ60を説明するための図である。図7は、本発明の第1実施形態に係る文字入力システムにおけるベクトルデータ62を説明するための図である。図8は、本発明の第1実施形態に係る文字入力システムにおいて、第1の情報処理装置1の表示装置40に表示される文字を説明するための図である。
図6に示されるように、第2の情報処理装置100において、シート50がシート取付部130に取り付けられているときに、ユーザは、指先またはペン先によりシート50に触れながら、手書きで、日本語のひらがなの文字「い」を描画するジェスチャーを行なう。この場合に、振動センサ140は、振動データ60を出力する。上述のように、振動データ60は、指先またはペン先とシート50との摩擦により生じる摩擦振動(または摩擦音)のレベルを表している(図5のステップS101;振動データ出力処理)。
図6に示されるように、第2の情報処理装置100において、振動データ収集部121は、振動データ60として、振動データ60−1〜60−8を時系列で収集する(図5のステップS102;振動データ収集処理)。
図7に示されるように、第2の情報処理装置100において、ベクトルデータ生成部122は、時系列の振動データ60(振動データ60−1〜60−8)のレベルに基づいて、時間とシート50(図6)上の座標とより手書きの文字「い」を表すベクトルデータ62を生成する(図5のステップS103;ベクトルデータ生成処理)。
図7に示されるように、ベクトルデータ62は、ベクトルデータ62−1〜62−2を含んでいる。ベクトルデータ62−1は、振動データ60−1〜60−2、60−2〜60−3、60−3〜60−4、60−4〜60−5をベクトルで結んだ線を表している。ベクトルデータ62−2は、振動データ60−6〜60−7、60−7〜60−8をベクトルで結んだ線を表している。
図8に示されるように、第2の情報処理装置100において、データ出力部123は、ベクトルデータ62(ベクトルデータ62−1〜62−2)が表す手書きの文字「い」を第1の情報処理装置1の表示装置40に表示させるために、そのベクトルデータ62(ベクトルデータ62−1、62−2)を、ネットワークNEを介して、第1の情報処理装置1に送信する(図5のステップS104;データ送信処理)。
図8に示されるように、第1の情報処理装置1において、データ受取部21は、第2の情報処理装置100からネットワークNEを介して出力されたベクトルデータ62(ベクトルデータ62−1、62−2)を受け取る(図5のステップS1;データ受取処理)。
図8に示されるように、第1の情報処理装置1において、表示制御部22は、ベクトルデータ62(ベクトルデータ62−1、62−2)が表す手書きの文字「い」を表示装置40に表示する(図5のステップS2;文字表示処理)。
以上の説明により、本発明の第1実施形態に係る文字入力システムは、表示装置40と、制御装置120と、シート50を取り付け可能なシート取付部130と、シート50がシート取付部130に取り付けられているときに、ユーザが指先またはペン先によりシート50に触れながら文字「い」を描画するジェスチャーを行なった場合に、指先またはペン先とシート50との摩擦により生じるレベルを表す振動データ60を出力する振動センサ140と、を具備している。制御装置120は、振動データ60(振動データ60−1〜60−8)を時系列で収集する振動データ収集部121と、時系列の振動データ60(振動データ60−1〜60−8)のレベルに基づいて、時間とシート50上の座標とより文字「い」を表すベクトルデータ62(ベクトルデータ62−1、62−2)を生成するベクトルデータ生成部122と、ベクトルデータ62(ベクトルデータ62−1、62−2)が表す文字「い」を表示装置40に出力するデータ出力部123と、を具備している。
ここで、本発明の第1実施形態に係る文字入力システムは、第1の情報処理装置1と、第1の情報処理装置1にネットワークNEを介して接続された第2の情報処理装置100と、を更に具備している。この場合、表示装置40は、第1の情報処理装置1に設けられ、シート取付部130と振動センサ140と制御装置120は、第2の情報処理装置100に設けられている。
このように、本発明の第1実施形態に係る文字入力システムによれば、第2の情報処理装置100の制御装置120は、ユーザが指先またはペン先によりシート50に触れながら文字「い」を描画するジェスチャーを行なった際に、上述の振動データ60(振動データ60−1〜60−8)を時系列で収集して、上述のベクトルデータ62(ベクトルデータ62−1、62−2)を生成する。その後、制御装置120は、ベクトルデータ62(ベクトルデータ62−1、62−2)が表す文字「い」を第1の情報処理装置1の表示装置40に表示させる。そのため、ユーザが文字「い」の入力操作をジェスチャーにより行なう際に、ユーザが意図する文字「い」を表示装置40に表示することができる。
[第2実施形態]
本発明の第1実施形態に係る文字入力システムでは、上述のように、第2の情報処理装置100が、振動センサ140の出力(時系列の振動データ60)からベクトルデータ62(手書きの文字)を生成し、第1の情報処理装置1が、そのベクトルデータ62が表す手書きの文字を表示装置40に表示している。しかし、これに限定されない。本発明の第2実施形態に係る文字入力システムでは、第2の情報処理装置100は、ベクトルデータ62(手書きの文字)を生成した後、複数の登録文字の中から、ベクトルデータ62が表す手書きの文字に最も近似する登録文字を近似登録文字として判定し、第1の情報処理装置1が、その近似登録文字を表示装置40に表示してもよい。
本発明の第1実施形態に係る文字入力システムでは、上述のように、第2の情報処理装置100が、振動センサ140の出力(時系列の振動データ60)からベクトルデータ62(手書きの文字)を生成し、第1の情報処理装置1が、そのベクトルデータ62が表す手書きの文字を表示装置40に表示している。しかし、これに限定されない。本発明の第2実施形態に係る文字入力システムでは、第2の情報処理装置100は、ベクトルデータ62(手書きの文字)を生成した後、複数の登録文字の中から、ベクトルデータ62が表す手書きの文字に最も近似する登録文字を近似登録文字として判定し、第1の情報処理装置1が、その近似登録文字を表示装置40に表示してもよい。
図9は、本発明の第2実施形態に係る表示システムの構成を示すブロック図である。第2実施形態では、第1実施形態からの変更点を説明する。
図9に示されるように、第2の情報処理装置100の制御装置120は、更に、文字データベース221と、文字判定部222と、を備えている。制御装置120の各構成の動作については後述する。
図10は、本発明の第2実施形態に係る表示システムの文字データベース221を示す図である。
図10に示されるように、文字データベース221には、複数の登録文字が登録されている。複数の登録文字の各々は、設定されたフォントにより文字データベース221に登録されている。フォントは、コンピュータが画面(表示装置)に表示したり、紙面に印刷したりするために利用されているデータ(書体データ)である。複数の登録文字としては、日本語のひらがな、カタカナ、漢字や、アルファベット、数字、記号などがあげられる。
次に、本発明の第2実施形態に係る文字入力システムの動作について説明する。
図11は、本発明の第2実施形態に係る文字入力システムの動作を示すフローチャートである。図12は、本発明の第2実施形態に係る文字入力システムにおいて、第1の情報処理装置1の表示装置40に表示される文字を説明するための図である。
図11に示されるように、まず、第2の情報処理装置100において、第1実施形態におけるステップS101〜S103が行なわれる。
次に、第2の情報処理装置100において、文字判定部222(図9)は、文字データベース221(図10)に登録された複数の登録文字の中から、ベクトルデータ62(ベクトルデータ62−1、62−2)(図7)が表す手書きの文字「い」に最も近似する登録文字「い」を、近似登録文字として判定する(図11のステップS201;登録文字判定処理)。
図12に示されるように、第2の情報処理装置100において、データ出力部123は、近似登録文字「い」を第1の情報処理装置1の表示装置40に表示させるために、上記近似登録文字「い」を表す文字データを、ネットワークNEを介して、第1の情報処理装置1に送信する(図11のステップS104;データ送信処理)。
図12に示されるように、第1の情報処理装置1において、データ受取部21は、第2の情報処理装置100からネットワークNEを介して出力された文字データを受け取る(図11のステップS1;データ受取処理)。
図12に示されるように、第1の情報処理装置1において、表示制御部22は、文字データが表す近似登録文字「い」を表示装置40に表示する(図11のステップS2;文字表示処理)。
以上の説明により、本発明の第2実施形態に係る文字入力システムにおいて、制御装置120は、複数の登録文字が登録された文字データベース221と、文字データベース221に登録された複数の登録文字の中から、ベクトルデータ62(ベクトルデータ62−1、62−2)が表す文字「い」に最も近似する登録文字「い」を、近似登録文字として判定する文字判定部222と、を更に具備している。この場合、データ出力部123は、近似登録文字「い」を表示装置40に出力する。
このように、本発明の第2実施形態に係る文字入力システムによれば、第2の情報処理装置100の制御装置120は、ユーザが指先またはペン先によりシート50に触れながら文字「い」を描画するジェスチャーを行なった際に、上述の振動データ60(振動データ60−1〜60−8)を時系列で収集して、上述のベクトルデータ62(ベクトルデータ62−1、62−2)を生成する。その後、制御装置120は、文字データベース221を参照した結果、ベクトルデータ62(ベクトルデータ62−1、62−2)から近似登録文字「い」を判定し、近似登録文字「い」を第1の情報処理装置1の表示装置40に表示させる。そのため、ユーザが文字「い」の入力操作をジェスチャーにより行なう際に、ユーザが意図する近似登録文字「い」を表示装置40に表示することができる。
[第3実施形態]
本発明の第1実施形態に係る文字入力システムでは、上述のように、第2の情報処理装置100が、振動センサ140の出力(時系列の振動データ60)からベクトルデータ62(手書きの文字)を生成し、第1の情報処理装置1が、そのベクトルデータ62が表す手書きの文字を表示装置40に表示している。しかし、これに限定されない。本発明の第3実施形態に係る文字入力システムでは、第2の情報処理装置100は、カメラの出力(時系列の画像データ)からジェスチャーの軌跡を表す軌跡データを生成し、軌跡データ(ジェスチャーの軌跡)とベクトルデータ62(手書きの文字)との重畳部分を解析文字として判定し、第1の情報処理装置1が、その解析文字を表示装置40に表示してもよい。
本発明の第1実施形態に係る文字入力システムでは、上述のように、第2の情報処理装置100が、振動センサ140の出力(時系列の振動データ60)からベクトルデータ62(手書きの文字)を生成し、第1の情報処理装置1が、そのベクトルデータ62が表す手書きの文字を表示装置40に表示している。しかし、これに限定されない。本発明の第3実施形態に係る文字入力システムでは、第2の情報処理装置100は、カメラの出力(時系列の画像データ)からジェスチャーの軌跡を表す軌跡データを生成し、軌跡データ(ジェスチャーの軌跡)とベクトルデータ62(手書きの文字)との重畳部分を解析文字として判定し、第1の情報処理装置1が、その解析文字を表示装置40に表示してもよい。
図13は、本発明の第3実施形態に係る表示システムの構成を示すブロック図である。第3実施形態では、第1実施形態からの変更点を説明する。
図13に示されるように、第2の情報処理装置100の制御装置120は、更に、画像データ収集部321と、軌跡データ生成部322と、解析データ生成部323と、を備えている。制御装置120の各構成の動作については後述する。
図13に示されるように、第2の情報処理装置100は、更に、カメラ350を具備している。
カメラ350は、シート50がシート取付部130に取り付けられているときに、ユーザがジェスチャーを行なった場合に、画像データを出力する。
次に、本発明の第3実施形態に係る文字入力システムの動作について説明する。
図14は、本発明の第3実施形態に係る文字入力システムの動作を示すフローチャートである。図15は、本発明の第3実施形態に係る文字入力システムにおける時系列の画像データ70を説明するための図である。図16は、本発明の第3実施形態に係る文字入力システムにおける軌跡データ72を説明するための図である。図17は、本発明の第3実施形態に係る文字入力システムにおける解析データ80を説明するための図である。図18は、本発明の第3実施形態に係る文字入力システムにおいて、第1の情報処理装置1の表示装置40に表示される文字を説明するための図である。
図14に示されるように、まず、第2の情報処理装置100において、第1実施形態におけるステップS101〜S103と、後述のステップS301〜S303とが同時に行なわれる。
図15に示されるように、第2の情報処理装置100において、カメラ350は、シート50がシート取付部130に取り付けられているときに、ユーザが指先またはペン先によりシート50に触れながら手書きで文字「い」を描画するジェスチャーを行なった場合に、ジェスチャーを撮影してジェスチャーの画像(ユーザの指先またはペン先の画像)を表す画像データ70を出力する(図14のステップS301;画像データ出力処理)。
図15に示されるように、第2の情報処理装置100において、画像データ収集部321は、画像データ70として、画像データ70−1〜70−8を時系列で収集する(図14のステップS302;画像データ収集処理)。
時系列の画像データ70(画像データ70−1〜70−8)は、時間t1〜t8において、ステップS101において収集された時系列の振動データ60(振動データ60−1〜60−8)(図6)と同期している。
図16に示されるように、第2の情報処理装置100において、軌跡データ生成部322は、時系列の画像データ70(画像データ70−1〜70−8)が表すジェスチャーの画像に基づいて、時間とシート50(図15)上の座標とよりジェスチャーの軌跡を表す軌跡データ72を生成する(図14のステップS303;軌跡データ生成処理)。
図17に示されるように、第2の情報処理装置100において、解析データ生成部323は、軌跡データ72と、ステップS103において生成されたベクトルデータ62(ベクトルデータ62−1〜62−2)とをシート50上の座標に重ね合わせたときに、軌跡データ72が表すジェスチャーの軌跡に対してベクトルデータ62(ベクトルデータ62−1〜62−2)が表す手書きの文字「い」が重なる重畳部分80−1、80−2を解析する。このとき、解析データ生成部323は、重畳部分80−1、80−2である解析文字「い」を表す解析データ80を生成する(図14のステップS304;解析データ生成処理)。
図18に示されるように、第2の情報処理装置100において、データ出力部123は、解析データ80(重畳部分80−1、80−2)が表す解析文字「い」を第1の情報処理装置1の表示装置40に表示させるために、上記解析文字「い」を表す文字データを、ネットワークNEを介して、第1の情報処理装置1に送信する(図14のステップS104;データ送信処理)。
図18に示されるように、第1の情報処理装置1において、データ受取部21は、第2の情報処理装置100からネットワークNEを介して出力された文字データを受け取る(図14のステップS1;データ受取処理)。
図18に示されるように、第1の情報処理装置1において、表示制御部22は、文字データが表す解析文字「い」を表示装置40に表示する(図14のステップS2;文字表示処理)。
以上の説明により、本発明の第3実施形態に係る文字入力システムは、シート50がシート取付部130に取り付けられているときに、ユーザがジェスチャーを行なった場合に、ジェスチャーを撮影してジェスチャーの画像を表す画像データ70を出力するカメラ350、を更に具備している。制御装置120は、画像データ70(画像データ70−1〜70−8)を時系列で収集する画像データ収集部321と、時系列の画像データ70(画像データ70−1〜70−8)が表すジェスチャーの画像に基づいて、時間とシート50上の座標とよりジェスチャーの軌跡を表す軌跡データ72を生成する軌跡データ生成部322と、軌跡データ72とベクトルデータ62(ベクトルデータ62−1、62−2)とをシート50上の座標に重ね合わせたときに、軌跡データ72が表すジェスチャーの軌跡に対してベクトルデータ62(ベクトルデータ62−1、62−2)が表す文字「い」が重なる重畳部分80−1、80−2を解析し、重畳部分80−1、80−2である解析文字「い」を表す解析データ80(重畳部分80−1、80−2)を生成する解析ベクトルデータ生成部323と、を更に具備している。この場合、データ出力部123は、解析データ80(重畳部分80−1、80−2)が表す解析文字「い」を表示装置40に出力する。
このように、本発明の第3実施形態に係る文字入力システムによれば、第2の情報処理装置100の制御装置120は、ユーザが指先またはペン先によりシート50に触れながら文字「い」を描画するジェスチャーを行なった際に、上述の振動データ60(振動データ60−1〜60−8)を時系列で収集して、上述のベクトルデータ62(ベクトルデータ62−1、62−2)を生成する。同時に、制御装置120は、上述の画像データ70(画像データ70−1〜70−8)を時系列で収集して、上述の軌跡データ72を生成する。その後、制御装置120は、軌跡データ72とベクトルデータ62(ベクトルデータ62−1、62−2)との重畳部分80−1、80−2である解析データ80を解析し、解析データ80(重畳部分80−1、80−2)が表す解析文字「い」を第1の情報処理装置1の表示装置40に表示させる。そのため、ユーザが文字「い」の入力操作をジェスチャーにより行なう際に、ユーザが意図する解析文字「い」を表示装置40に表示することができる。
[第4実施形態]
本発明の第4実施形態に係る文字入力システムでは、第3実施形態に第2実施形態を組み合わせてもよい。すなわち、本発明の第4実施形態に係る文字入力システムでは、第2の情報処理装置100は、解析データ80(解析文字)を生成した後、複数の登録文字の中から、解析データ80が表す解析文字に最も近似する登録文字を近似登録文字として判定し、第1の情報処理装置1が、その近似登録文字を表示装置40に表示してもよい。
本発明の第4実施形態に係る文字入力システムでは、第3実施形態に第2実施形態を組み合わせてもよい。すなわち、本発明の第4実施形態に係る文字入力システムでは、第2の情報処理装置100は、解析データ80(解析文字)を生成した後、複数の登録文字の中から、解析データ80が表す解析文字に最も近似する登録文字を近似登録文字として判定し、第1の情報処理装置1が、その近似登録文字を表示装置40に表示してもよい。
図19は、本発明の第4実施形態に係る表示システムの構成を示すブロック図である。第4実施形態では、第1実施形態〜第3実施形態からの変更点を説明する。
図19に示されるように、第2の情報処理装置100の制御装置120は、更に、第2実施形態における文字データベース221、文字判定部222を備えている。また、制御装置120は、更に、第3実施形態における画像データ収集部321、軌跡データ生成部322、解析データ生成部323を備えている。制御装置120の各構成の動作については後述する。
図19に示されるように、第2の情報処理装置100は、更に、第3実施形態におけるカメラ350を具備している。
次に、本発明の第4実施形態に係る文字入力システムの動作について説明する。
図20は、本発明の第4実施形態に係る文字入力システムの動作を示すフローチャートである。図21は、本発明の第4実施形態に係る文字入力システムにおいて、第1の情報処理装置1の表示装置40に表示される文字を説明するための図である。
図20に示されるように、まず、第2の情報処理装置100において、第1実施形態におけるステップS101〜S103と、第3実施形態におけるステップS301〜S303とが同時に行なわれる。
次に、図20に示されるように、第2の情報処理装置100において、第3実施形態におけるステップS304が行なわれる。
次に、文字判定部222(図19)は、文字データベース221(図10)に登録された複数の登録文字の中から、解析データ80(図17)が表す解析文字「い」に最も近似する登録文字「い」を、近似登録文字として判定する(図20のステップS201;登録文字判定処理)。
図21に示されるように、第2の情報処理装置100において、データ出力部123は、近似登録文字「い」を第1の情報処理装置1の表示装置40に表示させるために、上記近似登録文字「い」を表す文字データを、ネットワークNEを介して、第1の情報処理装置1に送信する(図20のステップS104;データ送信処理)。
図21に示されるように、第1の情報処理装置1において、データ受取部21は、第2の情報処理装置100からネットワークNEを介して出力された文字データを受け取る(図20のステップS1;データ受取処理)。
図21に示されるように、第1の情報処理装置1において、表示制御部22は、文字データが表す近似登録文字「い」を表示装置40に表示する(図20のステップS2;文字表示処理)。
以上の説明により、本発明の第4実施形態に係る文字入力システムにおいて、制御装置120は、複数の登録文字が登録された文字データベース221と、文字データベース221に登録された複数の登録文字の中から、解析データ80(重畳部分80−1、80−2)が表す解析文字「い」に最も近似する登録文字「い」を、近似登録文字として判定する文字判定部222と、を更に具備している。この場合、データ出力部123は、近似登録文字「い」を表示装置40に出力する。
このように、本発明の第4実施形態に係る文字入力システムによれば、第2の情報処理装置100の制御装置120は、ユーザが指先またはペン先によりシート50に触れながら文字「い」を描画するジェスチャーを行なった際に、上述の振動データ60(振動データ60−1〜60−8)を時系列で収集して、上述のベクトルデータ62(ベクトルデータ62−1、62−2)を生成する。同時に、制御装置120は、上述の画像データ70(画像データ70−1〜70−8)を時系列で収集して、上述の軌跡データ72を生成する。その後、制御装置120は、軌跡データ72とベクトルデータ62(ベクトルデータ62−1、62−2)との重畳部分80−1、80−2である解析データ80を解析する。制御装置120は、文字データベース221を参照した結果、解析データ80(重畳部分80−1、80−2)から近似登録文字「い」を判定し、近似登録文字「い」を第1の情報処理装置1の表示装置40に表示させる。そのため、ユーザが文字「い」の入力操作をジェスチャーにより行なう際に、ユーザが意図する近似登録文字「い」を表示装置40に表示することができる。
以上のように、本発明は上述した実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
1 … 第1の情報処理装置
2 … 第2の情報処理装置
10 … 記憶装置
20 … 制御装置
21 … データ受取部
22 … 表示制御部
30 … 入力装置
40 … 表示装置
50 … シート
60、60−1〜60−8 … 振動データ
62、62−1、62−2 … ベクトルデータ
70、70−1〜70−8 … 画像データ
72 … 軌跡データ
80−1、80−2 … 重畳部分
80 … 解析データ
110 … 記憶装置
120 … 制御装置
121 … 振動データ収集部
122 … ベクトルデータ生成部
123 … データ出力部
130 … シート取付部
140 … 振動センサ
221 … 文字データベース
222 … 文字判定部
321 … 画像データ収集部
322 … 軌跡データ生成部
323 … 解析データ生成部
350 … カメラ
NE … ネットワーク
2 … 第2の情報処理装置
10 … 記憶装置
20 … 制御装置
21 … データ受取部
22 … 表示制御部
30 … 入力装置
40 … 表示装置
50 … シート
60、60−1〜60−8 … 振動データ
62、62−1、62−2 … ベクトルデータ
70、70−1〜70−8 … 画像データ
72 … 軌跡データ
80−1、80−2 … 重畳部分
80 … 解析データ
110 … 記憶装置
120 … 制御装置
121 … 振動データ収集部
122 … ベクトルデータ生成部
123 … データ出力部
130 … シート取付部
140 … 振動センサ
221 … 文字データベース
222 … 文字判定部
321 … 画像データ収集部
322 … 軌跡データ生成部
323 … 解析データ生成部
350 … カメラ
NE … ネットワーク
Claims (7)
- 表示装置と、
制御装置と、
シートを取り付け可能なシート取付部と、
前記シートが前記シート取付部に取り付けられているときに、ユーザが指先またはペン先により前記シートに触れながら文字を描画するジェスチャーを行なった場合に、前記指先または前記ペン先と前記シートとの摩擦により生じるレベルを表す振動データを出力する振動センサと、
を具備し、
前記制御装置は、
前記振動データを時系列で収集する振動データ収集部と、
前記時系列の振動データのレベルに基づいて、時間と前記シート上の座標とより前記文字を表すベクトルデータを生成するベクトルデータ生成部と、
前記ベクトルデータが表す前記文字を前記表示装置に出力するデータ出力部と、
を具備することを特徴とする文字入力システム。 - 前記制御装置は、
複数の登録文字が登録された文字データベースと、
前記文字データベースに登録された前記複数の登録文字の中から、前記ベクトルデータが表す前記文字に最も近似する登録文字を、近似登録文字として判定する文字判定部と、
を更に具備し、
前記データ出力部は、前記近似登録文字を前記表示装置に出力する、
ことを特徴とする請求項1に記載の文字入力システム。 - 前記シートが前記シート取付部に取り付けられているときに、前記ユーザが前記ジェスチャーを行なった場合に、前記ジェスチャーを撮影して前記ジェスチャーの画像を表す画像データを出力するカメラ、
を更に具備し、
前記制御装置は、
前記画像データを時系列で収集する画像データ収集部と、
前記時系列の画像データが表す前記ジェスチャーの画像に基づいて、時間と前記シート上の座標とより前記ジェスチャーの軌跡を表す軌跡データを生成する軌跡データ生成部と、
前記軌跡データと前記ベクトルデータとを前記シート上の座標に重ね合わせたときに、前記軌跡データが表す前記ジェスチャーの軌跡に対して前記ベクトルデータが表す前記文字が重なる重畳部分を解析し、前記重畳部分である解析文字を表す解析データを生成する解析ベクトルデータ生成部と、
を更に具備し、
前記データ出力部は、前記解析データが表す前記解析文字を前記表示装置に出力する、
ことを特徴とする請求項1に記載の文字入力システム。 - 前記制御装置は、
複数の登録文字が登録された文字データベースと、
前記文字データベースに登録された前記複数の登録文字の中から、前記解析データが表す前記解析文字に最も近似する登録文字を、近似登録文字として判定する文字判定部と、
を更に具備し、
前記データ出力部は、前記近似登録文字を前記表示装置に出力する、
ことを特徴とする請求項3に記載の文字入力システム。 - 第1の情報処理装置と、
前記第1の情報処理装置にネットワークを介して接続された第2の情報処理装置と、
を更に具備し、
前記表示装置は、前記第1の情報処理装置に設けられ、
前記シート取付部と前記振動センサと前記制御装置は、前記第2の情報処理装置に設けられている、
ことを特徴とする請求項1から4のいずれか一項に記載の文字入力システム。 - 表示装置と、制御装置と、シートを取り付け可能なシート取付部と、振動センサと、を具備するシステムを用いる文字入力方法であって、
前記シートが前記シート取付部に取り付けられているときに、前記ユーザが指先またはペン先により前記シートに触れながら文字を描画するジェスチャーを行なった場合に、前記振動センサが、前記指先または前記ペン先と前記シートとの摩擦により生じるレベルを表す振動データを出力するステップと、
前記制御装置が、前記振動データを時系列で収集する振動データ収集ステップと、
前記制御装置が、前記時系列の振動データのレベルに基づいて、時間と前記シート上の座標とより前記文字を表すベクトルデータを生成するベクトルデータ生成ステップと、
前記制御装置が、前記ベクトルデータが表す前記文字を表示装置に出力する出力ステップと、
を具備することを特徴とする文字入力方法。 - 請求項6に記載の文字入力方法において、前記制御装置が行なう各ステップをコンピュータに実行させることを特徴とするコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015118285A JP2017004298A (ja) | 2015-06-11 | 2015-06-11 | 文字入力システム、文字入力方法、及び、コンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015118285A JP2017004298A (ja) | 2015-06-11 | 2015-06-11 | 文字入力システム、文字入力方法、及び、コンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017004298A true JP2017004298A (ja) | 2017-01-05 |
Family
ID=57751823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015118285A Pending JP2017004298A (ja) | 2015-06-11 | 2015-06-11 | 文字入力システム、文字入力方法、及び、コンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017004298A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021512432A (ja) * | 2018-07-11 | 2021-05-13 | 中国▲銀▼▲聯▼股▲ふん▼有限公司 | 運動軌跡の特徴処理方法、装置、および、コンピュータ記憶媒体 |
WO2022222979A1 (zh) * | 2021-04-22 | 2022-10-27 | 广州创知科技有限公司 | 书写方法、装置、交互平板和存储介质 |
-
2015
- 2015-06-11 JP JP2015118285A patent/JP2017004298A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021512432A (ja) * | 2018-07-11 | 2021-05-13 | 中国▲銀▼▲聯▼股▲ふん▼有限公司 | 運動軌跡の特徴処理方法、装置、および、コンピュータ記憶媒体 |
US11222431B2 (en) | 2018-07-11 | 2022-01-11 | China Unionpay Co., Ltd. | Feature processing method and device for motion trajectory, and computer storage medium |
JP7096904B2 (ja) | 2018-07-11 | 2022-07-06 | 中国▲銀▼▲聯▼股▲ふん▼有限公司 | 運動軌跡の特徴処理方法、装置、および、コンピュータ記憶媒体 |
WO2022222979A1 (zh) * | 2021-04-22 | 2022-10-27 | 广州创知科技有限公司 | 书写方法、装置、交互平板和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10606474B2 (en) | Touch screen finger tracing device | |
JP6609994B2 (ja) | 表示制御方法、情報処理装置及び表示制御プログラム | |
US9891822B2 (en) | Input device and method for providing character input interface using a character selection gesture upon an arrangement of a central item and peripheral items | |
US20150084859A1 (en) | System and Method for Recognition and Response to Gesture Based Input | |
US10591998B2 (en) | User interface device, user interface method, program, and computer-readable information storage medium | |
KR102402397B1 (ko) | 다중 입력 관리를 위한 시스템 및 방법 | |
US20140207453A1 (en) | Method and apparatus for editing voice recognition results in portable device | |
US9984335B2 (en) | Data processing device | |
JPWO2014041607A1 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US9928414B2 (en) | Information processing system for displaying handwriting action trajectory based on meta information | |
US20170047065A1 (en) | Voice-controllable image display device and voice control method for image display device | |
KR20220038477A (ko) | 텍스트 라인 추출 | |
CN108845757A (zh) | 一种智能交互平板的触控输入方法及装置、计算机可读存储介质、智能交互平板 | |
KR20160143428A (ko) | 펜 단말기 및 그 제어방법 | |
JP2017004298A (ja) | 文字入力システム、文字入力方法、及び、コンピュータプログラム | |
JP6272496B2 (ja) | 単語のシーケンスを含む音声を認識するための方法及びシステム | |
US20150355723A1 (en) | Finger position sensing and display | |
US9880630B2 (en) | User interface device, user interface method, program, and computer-readable information storage medium | |
JP2011154546A (ja) | 情報入力装置、情報入力方法及びプログラム | |
US20150261301A1 (en) | User interface device, user interface method, program, and computer-readable information storage medium | |
WO2017203764A1 (ja) | 情報処理装置および情報処理方法 | |
KR101099652B1 (ko) | 터치스크린을 이용한 한글 입력장치 및 방법 | |
CN104635948A (zh) | 一种输入方法与装置 | |
JP6325218B2 (ja) | 文字認識結果検証装置及び文字読取システム | |
WO2017116878A1 (en) | Multimodal interaction using a state machine and hand gestures discrete values |