JPH0683524A - ペン入力方式 - Google Patents
ペン入力方式Info
- Publication number
- JPH0683524A JPH0683524A JP23624292A JP23624292A JPH0683524A JP H0683524 A JPH0683524 A JP H0683524A JP 23624292 A JP23624292 A JP 23624292A JP 23624292 A JP23624292 A JP 23624292A JP H0683524 A JPH0683524 A JP H0683524A
- Authority
- JP
- Japan
- Prior art keywords
- input
- coordinate
- pen
- gesture
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Abstract
(57)【要約】
【目的】 本発明は、ペンにより入力を行うペン入力方
式に関し、文字やジェスチャーの入力を行う際に、人間
にとって自然で効率が良く、かつ間違いの少ない入力方
式を実現することを目的とする。 【構成】 画面上よりペンによって入力された情報から
入力形状(文字あるいはジェスチャー)を認識する入力
形状認識部4および当該入力形状の座標位置を抽出する
入力位置抽出部3と、第2座標入力手段5とを備え、入
力形状認識部4によって認識された入力形状、および入
力位置抽出部3によって抽出した座標位置あるいは第2
座標入力手段5によって入力された座標位置のいずれか
を入力イベントと決定するように構成する。
式に関し、文字やジェスチャーの入力を行う際に、人間
にとって自然で効率が良く、かつ間違いの少ない入力方
式を実現することを目的とする。 【構成】 画面上よりペンによって入力された情報から
入力形状(文字あるいはジェスチャー)を認識する入力
形状認識部4および当該入力形状の座標位置を抽出する
入力位置抽出部3と、第2座標入力手段5とを備え、入
力形状認識部4によって認識された入力形状、および入
力位置抽出部3によって抽出した座標位置あるいは第2
座標入力手段5によって入力された座標位置のいずれか
を入力イベントと決定するように構成する。
Description
【0001】
【産業上の利用分野】本発明は、ペンにより入力を行う
ペン入力方式に関するものである。ディスプレイと座標
入力装置を一体化したペン入力コンピュータの入力方式
であって、特に、ペンでも指タッチでも座標入力が行え
るペン入力コンピュータで、人間にとって自然な操作に
よりデータ入力や命令実行を可能とするペン入力方式で
ある。
ペン入力方式に関するものである。ディスプレイと座標
入力装置を一体化したペン入力コンピュータの入力方式
であって、特に、ペンでも指タッチでも座標入力が行え
るペン入力コンピュータで、人間にとって自然な操作に
よりデータ入力や命令実行を可能とするペン入力方式で
ある。
【0002】従来のコンピュータが主にキーボードやマ
ウスで操作・入力するのに対し、近年、入力をペンで行
うコンピュータが開発されてきた。このペン入力コンピ
ュータは、液晶やプラズマ方式の薄型平面ディスプレイ
にペンで座標入力ができる座標入力装置(タブレットや
タッチパネル)を重畳し、あたかも紙にペンで文字を書
くような感覚でコンピュータを操作することができると
いう特徴をもっている。
ウスで操作・入力するのに対し、近年、入力をペンで行
うコンピュータが開発されてきた。このペン入力コンピ
ュータは、液晶やプラズマ方式の薄型平面ディスプレイ
にペンで座標入力ができる座標入力装置(タブレットや
タッチパネル)を重畳し、あたかも紙にペンで文字を書
くような感覚でコンピュータを操作することができると
いう特徴をもっている。
【0003】このペン入力コンピュータは、ペンで書か
れた文字を認識することで文字入力を行う他に、画面上
の位置をペンで直接指示することにより座標入力を行っ
たり、ペンの特別な動作を認識することで削除や複写な
どの操作を実行するジェスチャー入力を行う、などの機
能を持っている。
れた文字を認識することで文字入力を行う他に、画面上
の位置をペンで直接指示することにより座標入力を行っ
たり、ペンの特別な動作を認識することで削除や複写な
どの操作を実行するジェスチャー入力を行う、などの機
能を持っている。
【0004】この際、ペンのみでなく更に指タッチでも
座標入力などを行い、操作性が良く、効率的な入力を可
能にすることが望まれている。
座標入力などを行い、操作性が良く、効率的な入力を可
能にすることが望まれている。
【0005】
【従来の技術】従来のペン入力コンピュータは、画面の
ある位置に文字を入力したり、画面上のある対象(オブ
ジェクト)に対して削除、複写、移動などのコマンドを
発行する時の操作方法として、大きく分けて次の2種類
の方法がある。
ある位置に文字を入力したり、画面上のある対象(オブ
ジェクト)に対して削除、複写、移動などのコマンドを
発行する時の操作方法として、大きく分けて次の2種類
の方法がある。
【0006】 操作の対象となる位置やオブジェクト
の上に直接文字入力やジェスチャーを行う方法。 操作の対象となる位置やオブジェクトをペンで一旦
指示した後、異なる場所で文字入力やジェスチャーを行
う方法。
の上に直接文字入力やジェスチャーを行う方法。 操作の対象となる位置やオブジェクトをペンで一旦
指示した後、異なる場所で文字入力やジェスチャーを行
う方法。
【0007】図8は、の方法の例を示す。図8の(a
−1)、(a−2)、(a−3)は、伝票入力を行う画
面を示す。 (a−1)は、画面上に表示した伝票を示す。
−1)、(a−2)、(a−3)は、伝票入力を行う画
面を示す。 (a−1)は、画面上に表示した伝票を示す。
【0008】(a−2)は、伝票上の対応する位置に直
接に文字(ここでは“100”)を図示のように記入す
る。 (a−3)は、(a−2)で入力された文字を読み取っ
て認識し、その位置に入力された文字(ここでは“10
0”)をデータとして表示すると共に処理する。
接に文字(ここでは“100”)を図示のように記入す
る。 (a−3)は、(a−2)で入力された文字を読み取っ
て認識し、その位置に入力された文字(ここでは“10
0”)をデータとして表示すると共に処理する。
【0009】以上のように、画面上の伝票中の該当する
位置に直接にペンで文字入力を行い、これを認識してデ
ータを表示すると共に内部に取り込んで処理を行う。図
8の(b−1)(b−2)は、ファイルを削除する画面
を示す。
位置に直接にペンで文字入力を行い、これを認識してデ
ータを表示すると共に内部に取り込んで処理を行う。図
8の(b−1)(b−2)は、ファイルを削除する画面
を示す。
【0010】(b−1)は、ファイル名一覧上で削除す
るファイル名の上に“X”というジェスチャーをペンで
入力する。 (b−2)は、(b−1)で入力されたジェスチャーの
位置から対象となるオブジェクト(ここではファイル
名)を決定すると共に、“X”という形状から“削除”
という命令を解釈し、対応するファイルの削除処理を行
う。
るファイル名の上に“X”というジェスチャーをペンで
入力する。 (b−2)は、(b−1)で入力されたジェスチャーの
位置から対象となるオブジェクト(ここではファイル
名)を決定すると共に、“X”という形状から“削除”
という命令を解釈し、対応するファイルの削除処理を行
う。
【0011】以上のように、画面上のファイル名一覧中
の該当するファイル名に削除を表すジェスチャー“X”
をペンで書き込み、この書き込まれた位置および形状を
認識し、その位置のファイル名の削除処理を行う。
の該当するファイル名に削除を表すジェスチャー“X”
をペンで書き込み、この書き込まれた位置および形状を
認識し、その位置のファイル名の削除処理を行う。
【0012】図9は、の方法の例を示す。図9の(a
−1)、(a−2)、(a−3)は、伝票入力を行う画
面を示す。 (a−1)は、伝票上の対応する位置をペン入力する。
−1)、(a−2)、(a−3)は、伝票入力を行う画
面を示す。 (a−1)は、伝票上の対応する位置をペン入力する。
【0013】(a−2)は、(a−1)のペン入力に対
応して入力カーソルを当該ペン入力の位置に移動した状
態で、画面上の任意の位置に文字(ここでは“10
0”)をペン入力する。
応して入力カーソルを当該ペン入力の位置に移動した状
態で、画面上の任意の位置に文字(ここでは“10
0”)をペン入力する。
【0014】(a−3)は、(a−2)で書かれた文字
を認識し、入力カーソルの位置に挿入して表示すると共
にデータとして処理する。 以上のように、画面上の伝票中の該当する位置にペン入
力して入力カーソルをその位置に移動した状態で、画面
上の任意の位置にデータをペン入力し、これを認識して
データを入力カーソルの位置に表示すると共に内部に取
り込んで処理を行う。
を認識し、入力カーソルの位置に挿入して表示すると共
にデータとして処理する。 以上のように、画面上の伝票中の該当する位置にペン入
力して入力カーソルをその位置に移動した状態で、画面
上の任意の位置にデータをペン入力し、これを認識して
データを入力カーソルの位置に表示すると共に内部に取
り込んで処理を行う。
【0015】図9の(b−1)、(b−2)は、ファイ
ルを削除する画面を示す。 (b−1)は、ファイル名一覧上で削除するファイル名
をペン入力して選択する。
ルを削除する画面を示す。 (b−1)は、ファイル名一覧上で削除するファイル名
をペン入力して選択する。
【0016】(b−2)は、(b−1)で選択したファ
イル名にカーソルを移動した状態で、任意の位置にジェ
スチャー“X”(削除ジェスチャー)をペン入力する。 (b−3)は、(b−2)のジェスチャー“X”で指示
された削除処理を行い、ファイル名を削除する。
イル名にカーソルを移動した状態で、任意の位置にジェ
スチャー“X”(削除ジェスチャー)をペン入力する。 (b−3)は、(b−2)のジェスチャー“X”で指示
された削除処理を行い、ファイル名を削除する。
【0017】図10は、従来の構成図を示す。これは、
上述した図8のの方法のペン入力コンピュータの構成
図である。図10の構成および動作を簡単に説明する。
ペン座標入力手段31から入力されたペンの座標データ
は、入力切出部32によって、時間情報およびペンのア
ップダウン情報をもとに一連の意味のある座標データ列
を切り出し、入力位置抽出部33および入力形状識別部
34に通知する。
上述した図8のの方法のペン入力コンピュータの構成
図である。図10の構成および動作を簡単に説明する。
ペン座標入力手段31から入力されたペンの座標データ
は、入力切出部32によって、時間情報およびペンのア
ップダウン情報をもとに一連の意味のある座標データ列
を切り出し、入力位置抽出部33および入力形状識別部
34に通知する。
【0018】入力形状識別部34は、文字認識部35お
よびジェスチャー認識部36を起動し、座標データ列の
形状をもとにペン入力の意味するもの(文字あるいはジ
ェスチャーに対応する形状)を決定する。このとき、1
つの形状に対し、複数の意味が考えられる場合(例えば
“X”という形状に対して、文字の“X”と、ジェスチ
ャーの“削除”の2つが考えられる場合)、これら可能
性のある候補を入力イベント生成部37に通知する。
よびジェスチャー認識部36を起動し、座標データ列の
形状をもとにペン入力の意味するもの(文字あるいはジ
ェスチャーに対応する形状)を決定する。このとき、1
つの形状に対し、複数の意味が考えられる場合(例えば
“X”という形状に対して、文字の“X”と、ジェスチ
ャーの“削除”の2つが考えられる場合)、これら可能
性のある候補を入力イベント生成部37に通知する。
【0019】入力位置抽出部33は、入力された座標デ
ータ列の意味の中心となる座標位置(書き始め位置、座
標列の重心点、座標列の存在する領域の中心点などのい
ずれか)を決定し、入力イベント生成部37に通知す
る。
ータ列の意味の中心となる座標位置(書き始め位置、座
標列の重心点、座標列の存在する領域の中心点などのい
ずれか)を決定し、入力イベント生成部37に通知す
る。
【0020】入力イベント生成部37は、プログラム実
行部38からのデータをもとに、入力形状識別部34か
ら通知された文字、ジェスチャーの候補の中から、入力
位置抽出部33で決定された位置情報で許される最も可
能性の高いものを選び出し、最終的に入力イベント(入
力の種類とその位置座標のペア)を決定する。例えば上
記の“X”の例の場合、入力位置が文字入力領域ならば
文字の“X”を選び、入力位置がファイル名の上ならば
ジェスチャーの“削除”を選ぶ。このように、入力され
た位置に応じて意味を決定する。
行部38からのデータをもとに、入力形状識別部34か
ら通知された文字、ジェスチャーの候補の中から、入力
位置抽出部33で決定された位置情報で許される最も可
能性の高いものを選び出し、最終的に入力イベント(入
力の種類とその位置座標のペア)を決定する。例えば上
記の“X”の例の場合、入力位置が文字入力領域ならば
文字の“X”を選び、入力位置がファイル名の上ならば
ジェスチャーの“削除”を選ぶ。このように、入力され
た位置に応じて意味を決定する。
【0021】生成された入力イベントは、プログラム実
行部38に通知し、この入力イベントに基づいて文字入
力やジェスチャー実行などの処理を行う。また、ペン座
標入力部31から通知された座標データは、入力切出部
32を通じて筆跡表示部40に通知する。そして、プロ
グラム実行部38のデータに基づいてプログラム表示部
39が表示するプログラムの出力画面とディスプレイ表
示部41によって重ね合わされ、平面ディスプレイ42
に表示する。この筆跡は、入力イベントを決定した時点
で自動的に消去する。
行部38に通知し、この入力イベントに基づいて文字入
力やジェスチャー実行などの処理を行う。また、ペン座
標入力部31から通知された座標データは、入力切出部
32を通じて筆跡表示部40に通知する。そして、プロ
グラム実行部38のデータに基づいてプログラム表示部
39が表示するプログラムの出力画面とディスプレイ表
示部41によって重ね合わされ、平面ディスプレイ42
に表示する。この筆跡は、入力イベントを決定した時点
で自動的に消去する。
【0022】上述した構成を持つペン入力コンピュータ
は、ペン座標入力部31と、平面ディスプレイ42が重
ね合わせて構成されているので、あたかも紙に書くよう
な感覚で、操作できる。
は、ペン座標入力部31と、平面ディスプレイ42が重
ね合わせて構成されているので、あたかも紙に書くよう
な感覚で、操作できる。
【0023】
【発明が解決しようとする課題】上述した図8のの方
式によれば、画面上に表示されている対象物の上に直接
に文字入力やジェスチャーを行えるので、利用者にとっ
て自然で効率の良い入力を実現できる利点があるが、ジ
ェスチャーの対象が比較的小さい場合にはジェスチャー
の対象を間違えて処理する危険性が生じるという問題が
ある。また、一般的にディスプレイ上に表示できる文字
に比べてペンで入力可能な文字サイズがひとまわり大き
いため、ディスプレイ上の入力領域が小さいとペンによ
る手書き文字が入力領域をはみ出してしまうなどの問題
がある。
式によれば、画面上に表示されている対象物の上に直接
に文字入力やジェスチャーを行えるので、利用者にとっ
て自然で効率の良い入力を実現できる利点があるが、ジ
ェスチャーの対象が比較的小さい場合にはジェスチャー
の対象を間違えて処理する危険性が生じるという問題が
ある。また、一般的にディスプレイ上に表示できる文字
に比べてペンで入力可能な文字サイズがひとまわり大き
いため、ディスプレイ上の入力領域が小さいとペンによ
る手書き文字が入力領域をはみ出してしまうなどの問題
がある。
【0024】一方、の方式によれば、ジェスチャーの
対象を間違えたり、入力領域をはみ出すなどの問題は生
じないが、の方式によれば1つの操作で済んでいたも
のが、選択+入力という2段階の操作になって効率が低
下してしまうと共に、人間にとって操作が幾分不自然と
なってしまうという問題がある。
対象を間違えたり、入力領域をはみ出すなどの問題は生
じないが、の方式によれば1つの操作で済んでいたも
のが、選択+入力という2段階の操作になって効率が低
下してしまうと共に、人間にとって操作が幾分不自然と
なってしまうという問題がある。
【0025】本発明は、これらの問題を解決するため、
文字やジェスチャーの入力を行う際に、人間にとって自
然で効率が良く、かつ間違いの少ない入力方式を実現す
ることを目的としている。
文字やジェスチャーの入力を行う際に、人間にとって自
然で効率が良く、かつ間違いの少ない入力方式を実現す
ることを目的としている。
【0026】
【課題を解決するための手段】図1および図6を参照し
て課題を解決するための手段を説明する。図1および図
6において、入力位置抽出部3は、画面上よりペンによ
って入力された情報から入力形状(文字あるいはジェス
チャー)の位置を抽出するものである。
て課題を解決するための手段を説明する。図1および図
6において、入力位置抽出部3は、画面上よりペンによ
って入力された情報から入力形状(文字あるいはジェス
チャー)の位置を抽出するものである。
【0027】入力形状識別部4は、画面上よりペンによ
って入力された情報から入力形状(文字あるいはジェス
チャー)を認識するものである。第2座標入力手段5
は、第2の座標入力手段であって、例えば指タッチによ
る座標入力手段である。
って入力された情報から入力形状(文字あるいはジェス
チャー)を認識するものである。第2座標入力手段5
は、第2の座標入力手段であって、例えば指タッチによ
る座標入力手段である。
【0028】入力形状識別部15は、第2座標入力手段
5によって入力された情報から入力形状(ジェスチャ
ー)を認識するものである。入力位置抽出部14は、第
2座標入力手段5によって入力された情報から入力形状
(ジェスチャー)の位置を抽出するものである。
5によって入力された情報から入力形状(ジェスチャ
ー)を認識するものである。入力位置抽出部14は、第
2座標入力手段5によって入力された情報から入力形状
(ジェスチャー)の位置を抽出するものである。
【0029】
【作用】本発明は、図1に示すように、画面上よりペン
によって入力された情報から入力形状識別部4が入力形
状(文字あるいはジェスチャー)を認識および入力位置
抽出部3が入力形状の位置を抽出し、認識した入力形
状、および抽出した位置あるいは第2座標入力手段7か
らの位置のいずれかを入力イベントとするようにしてい
る。
によって入力された情報から入力形状識別部4が入力形
状(文字あるいはジェスチャー)を認識および入力位置
抽出部3が入力形状の位置を抽出し、認識した入力形
状、および抽出した位置あるいは第2座標入力手段7か
らの位置のいずれかを入力イベントとするようにしてい
る。
【0030】また、画面上よりペンによって入力された
情報から入力形状識別部4が入力形状(文字あるいはジ
ェスチャー)を認識および入力位置抽出部3が入力形状
(文字あるいはジェスチャー)の位置を抽出すると共
に、第2座標入力手段5によって入力された情報から入
力形状識別部15が入力形状(ジェスチャー)を認識お
よび入力位置抽出部14が入力形状の位置を抽出し、上
記認識した入力形状のいずかおよび上記抽出した位置の
いずれかを入力イベントとするようにしている。
情報から入力形状識別部4が入力形状(文字あるいはジ
ェスチャー)を認識および入力位置抽出部3が入力形状
(文字あるいはジェスチャー)の位置を抽出すると共
に、第2座標入力手段5によって入力された情報から入
力形状識別部15が入力形状(ジェスチャー)を認識お
よび入力位置抽出部14が入力形状の位置を抽出し、上
記認識した入力形状のいずかおよび上記抽出した位置の
いずれかを入力イベントとするようにしている。
【0031】この際、第2座標入力手段5として指タッ
チによる座標入力手段とするようにしている。また、入
力形状識別部4、15が入力された情報と予め設定した
ジェスチャー表44とを照合してジェスチャーを認識す
るようにしている。
チによる座標入力手段とするようにしている。また、入
力形状識別部4、15が入力された情報と予め設定した
ジェスチャー表44とを照合してジェスチャーを認識す
るようにしている。
【0032】従って、文字やジェスチャーの入力を行う
際に、第2座標入力手段5を用いることにより、人間に
とって自然で効率の良い、間違いの少ない入力方式を実
現することが可能となる。
際に、第2座標入力手段5を用いることにより、人間に
とって自然で効率の良い、間違いの少ない入力方式を実
現することが可能となる。
【0033】
【実施例】次に、図1から図5を用いて本発明の実施例
の構成および動作を順次詳細に説明する。
の構成および動作を順次詳細に説明する。
【0034】図1は、本発明の原理構成図を示す。図1
において、ペン座標入力手段1は、ディスプレイ上から
ペンで文字やジェスチャーを書いたときのペンのダウン
した座標位置、ダウンしたまま書いたときの座標、アッ
プしたときの座標位置などを入力するものである。
において、ペン座標入力手段1は、ディスプレイ上から
ペンで文字やジェスチャーを書いたときのペンのダウン
した座標位置、ダウンしたまま書いたときの座標、アッ
プしたときの座標位置などを入力するものである。
【0035】入力切出部2は、ペン座標入力手段1から
入力されたペンの座標データをもとに、時間情報、ペン
のダウン、アップ情報、座標、ペンが入力有効領域から
離れた否かなどの情報をもとに、一連の意味のある座標
データ列を切り出すものである。例えば、ペンが入力面
に接触している間の連続した座標データを1つの単位
(ストローク)とし、1つのストロークが入力されてか
ら一定時間が経過したか、あるいはペンが入力有効領域
から大きく離れた場合に、それまでに入力されたストロ
ークの列を求めて、入力単位として切り出す。これら切
り出した座標データ列は、入力位置抽出部3および入力
形状識別部4に通知する。
入力されたペンの座標データをもとに、時間情報、ペン
のダウン、アップ情報、座標、ペンが入力有効領域から
離れた否かなどの情報をもとに、一連の意味のある座標
データ列を切り出すものである。例えば、ペンが入力面
に接触している間の連続した座標データを1つの単位
(ストローク)とし、1つのストロークが入力されてか
ら一定時間が経過したか、あるいはペンが入力有効領域
から大きく離れた場合に、それまでに入力されたストロ
ークの列を求めて、入力単位として切り出す。これら切
り出した座標データ列は、入力位置抽出部3および入力
形状識別部4に通知する。
【0036】入力位置抽出部3は、通知された座標デー
タ列の意味の中心となる座標位置を決定するものであ
る。入力形状識別部4は、通知された座標データ列をも
とに、予め設定したジェスチャー表44を参照してジェ
スチャーと判定したり、文字と認識したりするものであ
る。
タ列の意味の中心となる座標位置を決定するものであ
る。入力形状識別部4は、通知された座標データ列をも
とに、予め設定したジェスチャー表44を参照してジェ
スチャーと判定したり、文字と認識したりするものであ
る。
【0037】ジェスチャー表44は、ジャスチャーを認
識するために予めその形状を設定した表である。第2座
標入力手段5は、第2の座標入力手段であって、例えば
指タッチパネルである。
識するために予めその形状を設定した表である。第2座
標入力手段5は、第2の座標入力手段であって、例えば
指タッチパネルである。
【0038】入力位置決定部6は、入力位置抽出部3に
よって抽出された座標データ列の中心位置あるいは第2
座標入力手段5によって入力された位置のいずれかを、
入力位置として決定するものである。例えば第2座標入
力手段5から位置が入力されたときはこの位置を入力位
置と決定し、第2座標入力手段5から位置が入力されな
かったときに入力位置抽出部3によって抽出された位置
を入力位置として決定したりするものである(図4、図
5参照)。
よって抽出された座標データ列の中心位置あるいは第2
座標入力手段5によって入力された位置のいずれかを、
入力位置として決定するものである。例えば第2座標入
力手段5から位置が入力されたときはこの位置を入力位
置と決定し、第2座標入力手段5から位置が入力されな
かったときに入力位置抽出部3によって抽出された位置
を入力位置として決定したりするものである(図4、図
5参照)。
【0039】入力イベント生成部7は、入力イベントと
して、入力形状識別部4によって認識されたジェスチャ
ーあるいは文字、および入力位置決定部6によって決定
された位置を、入力イベントとして決定するものであ
る。
して、入力形状識別部4によって認識されたジェスチャ
ーあるいは文字、および入力位置決定部6によって決定
された位置を、入力イベントとして決定するものであ
る。
【0040】プログラム実行部8は、画面上に各種伝票
やファイル名一覧などを表示するものである。図2は、
本発明の1実施例構成図を示す。ここで、1から3は図
1の構成の同一であるので説明を省略する。
やファイル名一覧などを表示するものである。図2は、
本発明の1実施例構成図を示す。ここで、1から3は図
1の構成の同一であるので説明を省略する。
【0041】図2において、入力形状識別部41は、文
字認識部42およびジェスチャー認識部43を起動し、
通知された座標データ列をもとにペン入力の意味する形
状が文字かジェスチャーかを判定するものである。
字認識部42およびジェスチャー認識部43を起動し、
通知された座標データ列をもとにペン入力の意味する形
状が文字かジェスチャーかを判定するものである。
【0042】文字認識部42は、通知された座標データ
列をもとに文字認識を行い、英字、数字、漢字などの文
字コードを決定するものである。ジェスチャー認識部4
3は、予め設定したジェスチャー表44を参照して、通
知された座標データ列についてジェスチャーに該当する
か否かを判別するものである。
列をもとに文字認識を行い、英字、数字、漢字などの文
字コードを決定するものである。ジェスチャー認識部4
3は、予め設定したジェスチャー表44を参照して、通
知された座標データ列についてジェスチャーに該当する
か否かを判別するものである。
【0043】ジェスチャー表44は、後述する図3に示
すように、ペン書きした形状(ジェスチャー)に対応づ
けてその意味を予め設定した表である。例えば手書きの
“×”は削除と設定する。ここで、1つの形状に対し、
複数の意味が存在する場合がある。例えば形状“X”
は、文字の“X”と、ジェスチャーの“×”(削除)の
可能性があるので、入力形状識別部41は、これら可能
性のある複数の候補(文字コードおよびジェスチャー)
を決定し、入力イベント生成部7に通知する。
すように、ペン書きした形状(ジェスチャー)に対応づ
けてその意味を予め設定した表である。例えば手書きの
“×”は削除と設定する。ここで、1つの形状に対し、
複数の意味が存在する場合がある。例えば形状“X”
は、文字の“X”と、ジェスチャーの“×”(削除)の
可能性があるので、入力形状識別部41は、これら可能
性のある複数の候補(文字コードおよびジェスチャー)
を決定し、入力イベント生成部7に通知する。
【0044】指タッチ座標入力手段51は、第2座標入
力手段5の例であって、ここでは、指タッチによって位
置座標を入力するものである。入力位置決定部6は、指
タッチ座標入力手段51からの座標入力があれば当該指
タッチ座標入力手段51から入力した位置座標を、指タ
ッチ座標入力手段51からの入力がないときは入力位置
抽出部3からの位置座標を、入力イベント生成部7に送
出するものである。
力手段5の例であって、ここでは、指タッチによって位
置座標を入力するものである。入力位置決定部6は、指
タッチ座標入力手段51からの座標入力があれば当該指
タッチ座標入力手段51から入力した位置座標を、指タ
ッチ座標入力手段51からの入力がないときは入力位置
抽出部3からの位置座標を、入力イベント生成部7に送
出するものである。
【0045】入力イベント生成部7は、プログラム実行
部8からのデータにもとづいて、入力形状識別部4から
入力された文字およびジェスチャーの候補の中から、入
力位置決定部6で決定された位置情報で許される最も可
能性の高いもの(文字あるいはジェスチャー)を選びだ
し、最終的な入力イベント(入力の種類、位置座標のペ
ア)を決定する。例えば“X”の場合、プログラムの実
行状態に応じて、入力位置が文字入力領域ならば文字の
“X”を選び、入力位置が文字入力域でなく、ファイル
名などの場合ならばジェスチャーの“削除”を選択す
る。この場合、単に文字かジェスチャーか決定するだけ
でなく、文字の場合には入力位置が数字のみの入力域な
らば候補の文字コード(複数)の中から数字の文字コー
ドのみを選択する。ジェスチャーの場合には、その位置
に応じて有効なジェスチャーの種類を制限することもで
きる。以上のようにして決定した入力イベント(文字/
ジェスチャー、位置)はプログラム実行部8に通知す
る。
部8からのデータにもとづいて、入力形状識別部4から
入力された文字およびジェスチャーの候補の中から、入
力位置決定部6で決定された位置情報で許される最も可
能性の高いもの(文字あるいはジェスチャー)を選びだ
し、最終的な入力イベント(入力の種類、位置座標のペ
ア)を決定する。例えば“X”の場合、プログラムの実
行状態に応じて、入力位置が文字入力領域ならば文字の
“X”を選び、入力位置が文字入力域でなく、ファイル
名などの場合ならばジェスチャーの“削除”を選択す
る。この場合、単に文字かジェスチャーか決定するだけ
でなく、文字の場合には入力位置が数字のみの入力域な
らば候補の文字コード(複数)の中から数字の文字コー
ドのみを選択する。ジェスチャーの場合には、その位置
に応じて有効なジェスチャーの種類を制限することもで
きる。以上のようにして決定した入力イベント(文字/
ジェスチャー、位置)はプログラム実行部8に通知す
る。
【0046】プログラム実行部8は、通知された入力イ
ベントをもとに、実際に文字入力やジェスチャーの実行
などの処理を行う。プログラム表示部9は、プログラム
実行部8から通知されたデータをもとに画面上に文字な
どを表示するものである。
ベントをもとに、実際に文字入力やジェスチャーの実行
などの処理を行う。プログラム表示部9は、プログラム
実行部8から通知されたデータをもとに画面上に文字な
どを表示するものである。
【0047】ディスプレイ表示部10は、プログラム表
示部9から通知された文字などを持つ画面をディスプレ
イ11上に表示したり、筆跡表示部12から通知された
ペンの筆跡の文字やジェスチャーをディスプレイ11上
に重畳して表示したりするものである。
示部9から通知された文字などを持つ画面をディスプレ
イ11上に表示したり、筆跡表示部12から通知された
ペンの筆跡の文字やジェスチャーをディスプレイ11上
に重畳して表示したりするものである。
【0048】筆跡表示部12は、入力切出部2から通知
されたペンの筆跡の座標データをもとに、ペンの筆跡を
ディスプレイ11上に表示するものである。このディス
プレイ11上に表示したペンの筆跡は、入力イベント生
成部7によって入力イベントが決定された時点で消去す
る。
されたペンの筆跡の座標データをもとに、ペンの筆跡を
ディスプレイ11上に表示するものである。このディス
プレイ11上に表示したペンの筆跡は、入力イベント生
成部7によって入力イベントが決定された時点で消去す
る。
【0049】図3は、本発明のジェスチャー表の例を示
す。ここで、左側のジェスチャーは、図2のペン座標入
力手段1によって入力した情報であって、このジェスチ
ャーに対応づけて、その意味を図示のように予め設定す
る。例えば“×”は“削除”と設定する。
す。ここで、左側のジェスチャーは、図2のペン座標入
力手段1によって入力した情報であって、このジェスチ
ャーに対応づけて、その意味を図示のように予め設定す
る。例えば“×”は“削除”と設定する。
【0050】次に、図4に示す順序に従い、図1、図2
の構成の動作を詳細に説明する。ここでは、ジェスチャ
ーをペン座標入力手段1から入力した場合について説明
する。
の構成の動作を詳細に説明する。ここでは、ジェスチャ
ーをペン座標入力手段1から入力した場合について説明
する。
【0051】図4において、S1は、第2座標入力手段
5によって画面上を指示する。このときの座標を(x、
y)とする。S2は、S1で第2座標入力手段5から位
置(x、y)を入力したことに対応して、入力位置決定
部6がこの座標(x、y)を保持する。
5によって画面上を指示する。このときの座標を(x、
y)とする。S2は、S1で第2座標入力手段5から位
置(x、y)を入力したことに対応して、入力位置決定
部6がこの座標(x、y)を保持する。
【0052】S3は、ペン座標入力手段1によってここ
ではジェスチャーを入力する。S4は、入力位置抽出部
3が通知された座標データ列をもとにジェスチャー位置
を決定する。例えば座標データ列の書きはじめ座標、座
標列の重心点、座標列の存在する領域の中心点などがあ
るが、ここでは座標列の重心点の座標をジェスチャーの
位置(X、Y)と決定する。
ではジェスチャーを入力する。S4は、入力位置抽出部
3が通知された座標データ列をもとにジェスチャー位置
を決定する。例えば座標データ列の書きはじめ座標、座
標列の重心点、座標列の存在する領域の中心点などがあ
るが、ここでは座標列の重心点の座標をジェスチャーの
位置(X、Y)と決定する。
【0053】S5は、入力形状識別部4がジェスチャー
表44を参照して形状を判断する。これは、ジェスチャ
ー認識部43が通知された座標データ群をもとに、図3
のジェスチャー表44を参照してジェスチャーがここで
は見つかったので、S6でジェスチャーと決定する。
表44を参照して形状を判断する。これは、ジェスチャ
ー認識部43が通知された座標データ群をもとに、図3
のジェスチャー表44を参照してジェスチャーがここで
は見つかったので、S6でジェスチャーと決定する。
【0054】S7は、ジェスチャー認識部44でジェス
チャー種別Jを決定する。これは、ジェスチャー認識部
43が図3のジェスチャー表44を参照して、該当する
ジェスチャーに対応する意味(例えば“×”に対応する
意味“削除”)をJと決定する。
チャー種別Jを決定する。これは、ジェスチャー認識部
43が図3のジェスチャー表44を参照して、該当する
ジェスチャーに対応する意味(例えば“×”に対応する
意味“削除”)をJと決定する。
【0055】S8は、S7で決定されたジェスチャーJ
を入力イベント生成部7が保持する。S9は、座標が保
持されているか判別する。YESの場合には、入力位置
決定部6に第2座標入力手段5からの座標が保持されて
いたので、S10で入力イベントを ジェスチャー:J 位置 :(x、y) と決定する。即ち、第2座標入力手段5から入力された
位置(x、y)と、ペン座標入力手段1によって入力さ
れたジェスチャーJを入力イベントとして決定する。
を入力イベント生成部7が保持する。S9は、座標が保
持されているか判別する。YESの場合には、入力位置
決定部6に第2座標入力手段5からの座標が保持されて
いたので、S10で入力イベントを ジェスチャー:J 位置 :(x、y) と決定する。即ち、第2座標入力手段5から入力された
位置(x、y)と、ペン座標入力手段1によって入力さ
れたジェスチャーJを入力イベントとして決定する。
【0056】一方、NOの場合には、第2座標入力手段
5から位置が入力されなかったので、S11で入力イベ
ントを ジェスチャー:J 位置 :(X、Y) と決定する。即ち、ペン座標入力手段1から入力された
位置(X、Y)と、ペン座標入力手段1によって入力さ
れたジェスチャーJを入力イベントとして決定する。
5から位置が入力されなかったので、S11で入力イベ
ントを ジェスチャー:J 位置 :(X、Y) と決定する。即ち、ペン座標入力手段1から入力された
位置(X、Y)と、ペン座標入力手段1によって入力さ
れたジェスチャーJを入力イベントとして決定する。
【0057】以上によって、第2座標入力手段5から位
置の入力があった場合、この位置とペン座標入力手段1
から入力されたジェスチャーJとを入力イベントと決定
し、一方、第2座標入力手段5から位置の入力がなかっ
た場合、ペン座標入力手段1から入力された位置および
ジェスチャーJを入力イベントと決定する。これによ
り、例えば利用者が左手の指により第2座標入力手段5
から位置を入力すると共に右手に持ったペンでペン座標
入力手段1からジェスチャーを入力したり、右手に持っ
たペンのみでペン座標入力手段1からジェスチャーと位
置の両者を入力したり、自由に使い分けることができ
る。
置の入力があった場合、この位置とペン座標入力手段1
から入力されたジェスチャーJとを入力イベントと決定
し、一方、第2座標入力手段5から位置の入力がなかっ
た場合、ペン座標入力手段1から入力された位置および
ジェスチャーJを入力イベントと決定する。これによ
り、例えば利用者が左手の指により第2座標入力手段5
から位置を入力すると共に右手に持ったペンでペン座標
入力手段1からジェスチャーを入力したり、右手に持っ
たペンのみでペン座標入力手段1からジェスチャーと位
置の両者を入力したり、自由に使い分けることができ
る。
【0058】次に、図5に示す順序に従い、図1、図2
の構成の動作を詳細に説明する。ここでは、文字をペン
座標入力手段1から入力した場合について説明する。図
5において、S21は、第2座標入力手段5によって画
面上を指示する。このときの座標を(x、y)とする。
の構成の動作を詳細に説明する。ここでは、文字をペン
座標入力手段1から入力した場合について説明する。図
5において、S21は、第2座標入力手段5によって画
面上を指示する。このときの座標を(x、y)とする。
【0059】S22は、S21で第2座標入力手段5か
ら位置(x、y)を入力したことに対応して、入力位置
決定部6がこの座標(x、y)を保持する。S23は、
ペン座標入力手段1によってここでは文字を入力する。
ら位置(x、y)を入力したことに対応して、入力位置
決定部6がこの座標(x、y)を保持する。S23は、
ペン座標入力手段1によってここでは文字を入力する。
【0060】S24は、入力位置抽出部3が通知された
座標データ列をもとに文字位置を決定する。例えば座標
データ列の書きはじめ座標、座標列の重心点、座標列の
存在する領域の中心点などがあるが、ここでは座標列の
重心点の座標を文字の位置(X、Y)と決定する。
座標データ列をもとに文字位置を決定する。例えば座標
データ列の書きはじめ座標、座標列の重心点、座標列の
存在する領域の中心点などがあるが、ここでは座標列の
重心点の座標を文字の位置(X、Y)と決定する。
【0061】S25は、入力形状識別部4がジェスチャ
ー表44を参照して形状を判断する。これは、ジェスチ
ャー認識部43が通知された座標データ群をもとに、図
3のジェスチャー表44を参照してジェスチャーがここ
では見つからなかったので、S26でジェスチャーでな
いと判断する。
ー表44を参照して形状を判断する。これは、ジェスチ
ャー認識部43が通知された座標データ群をもとに、図
3のジェスチャー表44を参照してジェスチャーがここ
では見つからなかったので、S26でジェスチャーでな
いと判断する。
【0062】S27は、文字認識部42で文字Cを決定
する。これは、文字認識部42が辞書やテンプレートと
照合して合致する文字Cを決定する。S28は、S27
で決定された文字(認識文字)を入力イベント生成部7
が保持する。
する。これは、文字認識部42が辞書やテンプレートと
照合して合致する文字Cを決定する。S28は、S27
で決定された文字(認識文字)を入力イベント生成部7
が保持する。
【0063】S29は、座標が保持されているか判別す
る。YESの場合には、入力位置決定部6に第2座標入
力手段5からの座標が保持されていたので、S30で入
力イベントを 文字 :C 位置 :(x、y) と決定する。即ち、第2座標入力手段5から入力された
位置(x、y)と、ペン座標入力手段1によって入力さ
れた文字Cを入力イベントとして決定する。
る。YESの場合には、入力位置決定部6に第2座標入
力手段5からの座標が保持されていたので、S30で入
力イベントを 文字 :C 位置 :(x、y) と決定する。即ち、第2座標入力手段5から入力された
位置(x、y)と、ペン座標入力手段1によって入力さ
れた文字Cを入力イベントとして決定する。
【0064】一方、NOの場合には、第2座標入力手段
5から位置が入力されなかったので、S31で入力イベ
ントを 文字 :C 位置 :(X、Y) と決定する。即ち、ペン座標入力手段1から入力された
位置(X、Y)と、ペン座標入力手段1によって入力さ
れた文字Cを入力イベントとして決定する。
5から位置が入力されなかったので、S31で入力イベ
ントを 文字 :C 位置 :(X、Y) と決定する。即ち、ペン座標入力手段1から入力された
位置(X、Y)と、ペン座標入力手段1によって入力さ
れた文字Cを入力イベントとして決定する。
【0065】以上によって、第2座標入力手段5から位
置の入力があった場合、この位置とペン座標入力手段1
から入力された文字Cとを入力イベントと決定し、一
方、第2座標入力手段5から位置の入力がなかった場
合、ペン座標入力手段1から入力された位置および文字
Cを入力イベントと決定する。これにより、例えば利用
者が左手の指により第2座標入力手段5から位置を入力
すると共に右手に持ったペンでペン座標入力手段1から
文字を入力したり、右手に持ったペンのみでペン座標入
力手段1から文字と位置の両者を入力したり、自由に使
い分けることができる。
置の入力があった場合、この位置とペン座標入力手段1
から入力された文字Cとを入力イベントと決定し、一
方、第2座標入力手段5から位置の入力がなかった場
合、ペン座標入力手段1から入力された位置および文字
Cを入力イベントと決定する。これにより、例えば利用
者が左手の指により第2座標入力手段5から位置を入力
すると共に右手に持ったペンでペン座標入力手段1から
文字を入力したり、右手に持ったペンのみでペン座標入
力手段1から文字と位置の両者を入力したり、自由に使
い分けることができる。
【0066】次に、図6および図7を用いて本発明の他
の実施例の構成および動作を詳細に説明する。図6は、
本発明の他の実施例構成図を示す。これは、図1および
図2の実施例構成図に比し、更に第2座標入力手段5の
側にも、入力切出部13、入力位置抽出部14および入
力形状識別部15を設けた例である。以下説明する。
の実施例の構成および動作を詳細に説明する。図6は、
本発明の他の実施例構成図を示す。これは、図1および
図2の実施例構成図に比し、更に第2座標入力手段5の
側にも、入力切出部13、入力位置抽出部14および入
力形状識別部15を設けた例である。以下説明する。
【0067】図6において、入力切出部13は、第2座
標入力手段5から入力された座標データをもとに、時間
情報、ペンのダウン、アップ情報、座標、ペンが入力有
効領域から離れた否かなどの情報をもとに、一連の意味
のある座標データ列を切り出すものである。
標入力手段5から入力された座標データをもとに、時間
情報、ペンのダウン、アップ情報、座標、ペンが入力有
効領域から離れた否かなどの情報をもとに、一連の意味
のある座標データ列を切り出すものである。
【0068】入力位置抽出部14は、通知された座標デ
ータ列の意味の中心となる座標位置を決定するものであ
る。入力形状識別部15は、通知された座標データ列を
もとに、予め設定したジェスチャー表44を参照してジ
ェスチャーと判定するものである。ここでは、第2座標
入力手段5として指タッチ座標入力手段などを用いるの
で、文字のような複雑な字形を入力することが困難なの
で、ここでは文字認識は行わない。
ータ列の意味の中心となる座標位置を決定するものであ
る。入力形状識別部15は、通知された座標データ列を
もとに、予め設定したジェスチャー表44を参照してジ
ェスチャーと判定するものである。ここでは、第2座標
入力手段5として指タッチ座標入力手段などを用いるの
で、文字のような複雑な字形を入力することが困難なの
で、ここでは文字認識は行わない。
【0069】次に、図7に示す順序に従い、図6の構成
の動作を詳細に説明する。ここでは、第2座標入力手段
5から位置およびジェスチャーを入力し、ペン座標入力
手段1から位置およびジェスチャー、文字を入力する場
合について以下説明する。
の動作を詳細に説明する。ここでは、第2座標入力手段
5から位置およびジェスチャーを入力し、ペン座標入力
手段1から位置およびジェスチャー、文字を入力する場
合について以下説明する。
【0070】図7において、S41は、第2座標入力手
段5によってジェスチャーを入力する。S42は、入力
位置抽出部14がジェスチャー位置(x、y)を決定す
る。例えば座標データ列の書きはじめ座標、座標列の重
心点、座標列の存在する領域の中心点などがあるが、こ
こでは座標列の重心点の座標をジェスチャーの位置
(x、y)と決定する。
段5によってジェスチャーを入力する。S42は、入力
位置抽出部14がジェスチャー位置(x、y)を決定す
る。例えば座標データ列の書きはじめ座標、座標列の重
心点、座標列の存在する領域の中心点などがあるが、こ
こでは座標列の重心点の座標をジェスチャーの位置
(x、y)と決定する。
【0071】S43は、入力位置決定部6が第2座標入
力手段5から入力されたジェスチャーの座標(x、y)
を保持する。S44は、入力形状識別部15によって起
動されたジェスチャー認識部43がジェスチャー表44
を参照して形状を判断する。ここでは、S45でジェス
チャーとして有効(通知された座標データ群をもとにジ
ェスチャー表44を参照して該当するジェスチャーが設
定されていて有効)となり、S46でジェスチャー認識
部でジェスチャー種別jを決定する。
力手段5から入力されたジェスチャーの座標(x、y)
を保持する。S44は、入力形状識別部15によって起
動されたジェスチャー認識部43がジェスチャー表44
を参照して形状を判断する。ここでは、S45でジェス
チャーとして有効(通知された座標データ群をもとにジ
ェスチャー表44を参照して該当するジェスチャーが設
定されていて有効)となり、S46でジェスチャー認識
部でジェスチャー種別jを決定する。
【0072】S47は、S45でジェスチャー種別jが
決定され、ジェスチャー入力があったと判明したので、
入力要素決定部16に通知する。S48は、S47で通
知を受けた入力要素決定部16がここでは入力要素jと
決定する。
決定され、ジェスチャー入力があったと判明したので、
入力要素決定部16に通知する。S48は、S47で通
知を受けた入力要素決定部16がここでは入力要素jと
決定する。
【0073】S49は、入力イベント生成部7がここで
は、第2座標入力手段5からのみ、位置(x、y)とジ
ェスチャーjが入力されたと判明したので、入力イベン
トとを ジェスチャー :j 位置 :(x、y) と決定する。
は、第2座標入力手段5からのみ、位置(x、y)とジ
ェスチャーjが入力されたと判明したので、入力イベン
トとを ジェスチャー :j 位置 :(x、y) と決定する。
【0074】以上によって、第2座標入力手段5のみか
ら位置(x、y)とジェスチャーjのみが入力され、ペ
ン座標入力手段1から入力されないとき、入力イベント
を[j、(x、y)]と決定する。
ら位置(x、y)とジェスチャーjのみが入力され、ペ
ン座標入力手段1から入力されないとき、入力イベント
を[j、(x、y)]と決定する。
【0075】S50は、ペン座標入力手段1によってジ
ェスチャーを入力する。S51は、入力位置抽出部3が
ジェスチャーの位置(X、Y)を決定する。S52は、
入力形状識別部15によって起動されたジェスチャー認
識部43がジェスチャー表44を参照して形状を判断す
る。ここでは、S53でジェスチャーとして有効(通知
された座標データ群をもとにジェスチャー表44を参照
して該当するジェスチャーが設定されていて有効)とな
り、S54でジェスチャー認識部でジェスチャー種別J
を決定する。
ェスチャーを入力する。S51は、入力位置抽出部3が
ジェスチャーの位置(X、Y)を決定する。S52は、
入力形状識別部15によって起動されたジェスチャー認
識部43がジェスチャー表44を参照して形状を判断す
る。ここでは、S53でジェスチャーとして有効(通知
された座標データ群をもとにジェスチャー表44を参照
して該当するジェスチャーが設定されていて有効)とな
り、S54でジェスチャー認識部でジェスチャー種別J
を決定する。
【0076】S55は、S54で通知を受けた入力要素
決定部16がここでは入力要素Jと決定する。S56
は、入力位置決定部6が座標が保持されているか判別す
る。YESの場合には、第2座標入力手段5からの座標
(x、y)が保持されていたので、S57で入力イベン
トを ジェスチャー :J 位置 :(x、y) と決定する。これにより、第2座標入力手段5からの位
置(x、y)が保持され、ペン座標入力手段1からジェ
スチャーJが入力されたとき、入力イベントを[J、
(x、y)]と決定する。
決定部16がここでは入力要素Jと決定する。S56
は、入力位置決定部6が座標が保持されているか判別す
る。YESの場合には、第2座標入力手段5からの座標
(x、y)が保持されていたので、S57で入力イベン
トを ジェスチャー :J 位置 :(x、y) と決定する。これにより、第2座標入力手段5からの位
置(x、y)が保持され、ペン座標入力手段1からジェ
スチャーJが入力されたとき、入力イベントを[J、
(x、y)]と決定する。
【0077】一方、NOの場合には、第2座標入力手段
5からの座標(x、y)が保持されていなかったので、
S58で入力イベントを ジェスチャー :J 位置 :(X、Y) と決定する。これにより、第2座標入力手段5からの位
置(x、y)が保持されていなかったとき、ペン座標入
力手段1からジェスチャーJが入力され、位置が(X、
Y)のときに、入力イベントを[J、(X、Y)]と決
定する。
5からの座標(x、y)が保持されていなかったので、
S58で入力イベントを ジェスチャー :J 位置 :(X、Y) と決定する。これにより、第2座標入力手段5からの位
置(x、y)が保持されていなかったとき、ペン座標入
力手段1からジェスチャーJが入力され、位置が(X、
Y)のときに、入力イベントを[J、(X、Y)]と決
定する。
【0078】
【発明の効果】以上説明したように、本発明によれば、
ペン座標入力手段1および第2座標入力手段5を設けて
ジェスチャー/文字や位置の入力をもとに入力イベント
を決定する構成を採用しているため、文字やジェスチャ
ーの入力を行う際に、第2座標入力手段5を用い、人間
にとって自然で効率の良い、間違いの少ない入力方式を
実現することができる。具体的に言えば、ペン座標入力
手段1の他に第2座標入力手段5として指タッチ座標入
力手段を用い、左指のタッチで位置、ジェスチャーを入
力し、右手に持ったペンで位置、ジェスチャー、文字を
入力することにより、左指のみでジェスチャー、位置を
入力したり、両者でジェスチャー、位置を入力したり、
右手のペンのみでジェスチャー、位置を入力したり、利
用者の状況に応じて任意に使い分けることができる。
ペン座標入力手段1および第2座標入力手段5を設けて
ジェスチャー/文字や位置の入力をもとに入力イベント
を決定する構成を採用しているため、文字やジェスチャ
ーの入力を行う際に、第2座標入力手段5を用い、人間
にとって自然で効率の良い、間違いの少ない入力方式を
実現することができる。具体的に言えば、ペン座標入力
手段1の他に第2座標入力手段5として指タッチ座標入
力手段を用い、左指のタッチで位置、ジェスチャーを入
力し、右手に持ったペンで位置、ジェスチャー、文字を
入力することにより、左指のみでジェスチャー、位置を
入力したり、両者でジェスチャー、位置を入力したり、
右手のペンのみでジェスチャー、位置を入力したり、利
用者の状況に応じて任意に使い分けることができる。
【図1】本発明の原理構成図である。
【図2】本発明の1実施例構成図である。
【図3】本発明のジェスチャー表の例である。
【図4】本発明の動作説明図(ジェスチャー入力の場
合)である。
合)である。
【図5】本発明の動作説明図(文字入力の場合)であ
る。
る。
【図6】本発明の他の実施例構成図である。
【図7】本発明の他の動作説明図である。
【図8】従来技術の説明図である。
【図9】従来技術の説明図である。
【図10】従来技術の構成図である。
1:ペン座標入力手段 2、13:入力切出部 3、14:入力位置抽出部 4、15:入力形状識別部 42:文字認識部 43:ジェスチャー認識部 44:ジェスチャー表 5:第2座標入力手段 51:指タッチ座標入力手段 6:入力位置決定部 7:入力イベント生成部 8:プログラム実行部 9:プログラム表示部 10:ディスプレイ表示部 11:ディスプレイ 12:筆跡表示部 16:入力要素決定部
Claims (4)
- 【請求項1】ペンにより入力を行うペン入力方式におい
て、 画面上よりペンによって入力された情報から入力形状
(文字あるいはジェスチャー)を認識する入力形状識別
部(4)および当該入力形状の座標位置を抽出する入力
位置抽出部(3)と、 第2座標入力手段(5)とを備え、 上記入力形状識別部(4)によって認識された入力形
状、および上記入力位置抽出部(3)によって抽出した
座標位置あるいは上記第2座標入力手段(5)によって
入力された座標位置のいずれかを入力イベントと決定す
るように構成したことを特徴とするペン入力方式。 - 【請求項2】ペンにより入力を行うペン入力方式におい
て、 画面上よりペンによって入力された情報から入力形状
(文字あるいはジェスチャー)を認識する入力形状識別
部(4)および当該入力形状の座標位置を抽出する入力
位置抽出部(3)と、 第2座標入力手段(5)によって入力された情報から入
力形状(ジェスチャー)を認識する入力形状識別部(1
5)および当該入力形状の座標位置を抽出する入力位置
抽出部(14)とを備え、 上記入力形状識別部(4)あるいは上記入力形状識別部
(15)のいずれかによって認識された入力形状、およ
び上記入力位置抽出部(3)によって抽出した座標位置
あるいは上記第2座標入力手段(5)によって入力され
た座標位置のいずれかを入力イベントと決定するように
構成したことを特徴とするペン入力方式。 - 【請求項3】上記第2座標入力手段(5)として指タッ
チによる座標入力手段としたことを特徴とする請求項1
記載および請求項2記載のペン入力方式。 - 【請求項4】上記入力形状識別部(4)、(15)が入
力された情報と予め設定したジェスチャー表(44)と
を照合してジェスチャーを認識するように構成したこと
を特徴とする請求項1記載および請求項2記載のペン入
力方式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23624292A JPH0683524A (ja) | 1992-09-04 | 1992-09-04 | ペン入力方式 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP23624292A JPH0683524A (ja) | 1992-09-04 | 1992-09-04 | ペン入力方式 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0683524A true JPH0683524A (ja) | 1994-03-25 |
Family
ID=16997889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP23624292A Withdrawn JPH0683524A (ja) | 1992-09-04 | 1992-09-04 | ペン入力方式 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0683524A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010049469A (ja) * | 2008-08-21 | 2010-03-04 | Sharp Corp | 座標処理装置及び方法、並びに、座標処理プログラム及びその座標処理プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2012530958A (ja) * | 2009-06-19 | 2012-12-06 | アルカテル−ルーセント | ウィンドウまたはアプリケーションを閉じるためのタッチ・センシティブ入力デバイス上でのジェスチャ |
JP2012244498A (ja) * | 2011-05-20 | 2012-12-10 | Sharp Corp | 画像処理システム、画像処理装置、及び、指示受付装置 |
JP2018018527A (ja) * | 2011-06-05 | 2018-02-01 | アップル インコーポレイテッド | 物理的なタッチ機能のないタッチユーザインタフェースを制御するためのデバイス、方法及びグラフィカルユーザインタフェース |
US10986252B2 (en) | 2015-06-07 | 2021-04-20 | Apple Inc. | Touch accommodation options |
US11947792B2 (en) | 2011-12-29 | 2024-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input |
-
1992
- 1992-09-04 JP JP23624292A patent/JPH0683524A/ja not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010049469A (ja) * | 2008-08-21 | 2010-03-04 | Sharp Corp | 座標処理装置及び方法、並びに、座標処理プログラム及びその座標処理プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2012530958A (ja) * | 2009-06-19 | 2012-12-06 | アルカテル−ルーセント | ウィンドウまたはアプリケーションを閉じるためのタッチ・センシティブ入力デバイス上でのジェスチャ |
JP2012244498A (ja) * | 2011-05-20 | 2012-12-10 | Sharp Corp | 画像処理システム、画像処理装置、及び、指示受付装置 |
JP2018018527A (ja) * | 2011-06-05 | 2018-02-01 | アップル インコーポレイテッド | 物理的なタッチ機能のないタッチユーザインタフェースを制御するためのデバイス、方法及びグラフィカルユーザインタフェース |
US10732829B2 (en) | 2011-06-05 | 2020-08-04 | Apple Inc. | Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities |
US11354032B2 (en) | 2011-06-05 | 2022-06-07 | Apple Inc. | Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities |
US11775169B2 (en) | 2011-06-05 | 2023-10-03 | Apple Inc. | Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities |
US11947792B2 (en) | 2011-12-29 | 2024-04-02 | Apple Inc. | Devices, methods, and graphical user interfaces for providing multitouch inputs and hardware-based features using a single touch input |
US10986252B2 (en) | 2015-06-07 | 2021-04-20 | Apple Inc. | Touch accommodation options |
US11470225B2 (en) | 2015-06-07 | 2022-10-11 | Apple Inc. | Touch accommodation options |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3535624B2 (ja) | 検索装置及び方法 | |
JP2003345507A (ja) | ライトエニウェアツール | |
JP2001005599A (ja) | 情報処理装置及び情報処理方法並びに情報処理プログラムを記録した記録媒体 | |
JP2007317022A (ja) | 手書文字処理装置及び手書文字処理方法 | |
JPH06242885A (ja) | 文書編集方法 | |
JP2000137555A (ja) | 情報処理装置及び方法並びに記録媒体 | |
JPH08212197A (ja) | 文書編集装置 | |
WO2014147722A1 (ja) | 電子機器、方法及びプログラム | |
KR20180119647A (ko) | 문자열에 문자를 삽입하기 위한 방법 및 대응하는 디지털 디바이스 | |
JPWO2014147712A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP3292752B2 (ja) | ジェスチャー処理装置およびジェスチャー処理方法 | |
JP2963589B2 (ja) | ジェスチャー処理装置およびジェスチャー処理方法 | |
JP2009151449A (ja) | アンドゥー機能付き電子黒板 | |
JPH0683524A (ja) | ペン入力方式 | |
JP2003196593A (ja) | 文字認識装置および文字認識方法および文字認識プログラム | |
JP2006323502A (ja) | 情報処理装置及びその制御方法、プログラム | |
JP2007102369A (ja) | ジェスチャ認識装置およびジェスチャ認識方法 | |
JP3258978B2 (ja) | ジェスチャー処理装置及びジェスチャー処理方法 | |
JP2989084B2 (ja) | 情報処理装置 | |
JP6328436B2 (ja) | 手書入力装置及び手書入力方法 | |
JP2003005902A (ja) | 文字入力装置、情報処理装置、文字入力装置の制御方法、及び記憶媒体 | |
JPH07182462A (ja) | 文字認識装置及び方法 | |
JP2005108032A (ja) | 筆跡処理装置 | |
JPH11345072A (ja) | ジェスチャ―処理装置及びジェスチャ―処理方法 | |
JPH0744308A (ja) | ワードプロセッサ |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 19991130 |