JP2003122506A - Coordinate input and operational method directing device - Google Patents

Coordinate input and operational method directing device

Info

Publication number
JP2003122506A
JP2003122506A JP2001312087A JP2001312087A JP2003122506A JP 2003122506 A JP2003122506 A JP 2003122506A JP 2001312087 A JP2001312087 A JP 2001312087A JP 2001312087 A JP2001312087 A JP 2001312087A JP 2003122506 A JP2003122506 A JP 2003122506A
Authority
JP
Japan
Prior art keywords
pressure distribution
pressure
coordinate
determined
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001312087A
Other languages
Japanese (ja)
Inventor
Yoshinori Shindo
好伯V 新藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2001312087A priority Critical patent/JP2003122506A/en
Publication of JP2003122506A publication Critical patent/JP2003122506A/en
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a coordinate input and operational method directing device, capable of simultaneously indicating the coordinate position of an operational object and the classification of an operational method instruction. SOLUTION: This coordinate inputting and operational method direction device includes a two-dimensional pressure distribution sensor capable of indicating a plurality of coordinate positions at the same time, a recording means for temporarily recording the pressure distribution detected by the pressure distribution sensor, a means for computing one or more sets of the maximum value of pressure and the coordinate position in the detected pressure distribution, a means for comparing the temporarily recorded past pressure distribution with the present pressure distribution to obtain a change by operation, and a means for discriminating the classification of an operational method instruction by the above operation.

Description

【発明の詳細な説明】 【0001】 【発明の属する技術分野】本発明は、グラフィカルなユ
ーザインタフェースを持つ情報処理装置において、スク
リーン上の任意の対象物に対する操作を指示する指示装
置に関するものである。 【0002】 【従来の技術】従来、コンピュータ端末に対して操作対
象座標位置を指示するための装置として、様々な平面状
位置検出装置が利用されてきた。但し、平面状位置検出
装置とは、画面上で座標(通常は単一の座標)を指し示
し、それによって様々な操作を行うための入力装置の総
称であり、物理的なデバイスの平面的(2次元的)な移
動又は絶対座標の変移、画面上のポインタの移動に反映
させて画面上の図形や文字を指示したり、画面上に表示
されている機能を選択したりするために用いられる。 【0003】一般的には、マウス、トラックボール、タ
ッチペン、タブレット、タッチパネル、ジョイスティッ
ク等のような装置を指すものとする。又、特に操作者が
操作対象に直に触れるような疑似的感覚を得易い装置と
してタッチパネルがある。このタッチパネルの代表的な
方式である抵抗膜方式(感圧方式)は、(透明)抵抗体
を有するガラス板或は樹脂フィルムを2枚以上重ねて座
標入力面を構成し、その面上で指示された箇所で、これ
ら2枚の(透明)抵抗体が接触する。その際、これらの
抵抗体に通電してその抵抗値の変化を検出することによ
り、その接触箇所を決定してその位置座標に変換する方
法である。 【0004】 【発明が解決しようとする課題】しかしながら、指を1
本だけ用いた操作としては、対象点の指定、移動の指示
等の操作を行おうとしていると考えることができる。
又、対象点に表示された画像中のオブジェクトを押すよ
うな操作を想定していることも考えられるにも拘らず、
通常のタッチパネル装置は、指先の1点押下による座標
指示インタフェースしか持たず、マウス装置に実装され
ている左ボタン、右ボタン等を持たないために座標を指
示することはできるが、同時に命令を入力することがで
きない。このため、このようにタッチパネル上で指を1
本だけ使用する限りにおいては、これらのオペレータの
意図を正確に伝えることはできず、従って、キーボード
装置を用いて特定のキーを押しながら操作する等してプ
ログラムヘの操作指示を変更したり、画面上の一定の位
置に示される操作メニューに対する選択動作を行った後
に対象オブジェクトに対する動作を行う、等の複数のス
テップの操作が必要であり、煩わしく、また直感的でな
かった。 【0005】又、マウス装置においては、通常1つ乃至
3つのボタンを持つが、この場合でも対象物を選択した
り、ドラッグしたり、操作の切り換えのためにボタンや
キーボード操作を併用する必要があり、ツーアクション
になってしまう等の煩わしさがあった。 【0006】更に、あくまでも操作者が操作しているの
は、対象物そのものではなくこれを指し示すポインタで
あるため、オブジェクト(対象物)を直接操作する感覚
に乏しく、馴染みにくいという欠点があった。 【0007】本発明は上記問題に鑑みてなされたもの
で、その目的とする処は、操作対象座標位置と操作方法
命令種別を同時に指示することができる座標入力及び操
作方法指示装置を提供することにある。 【0008】 【課題を解決するための手段】上記目的を達成するた
め、本発明は、同時に複数の座標位置を指示できる2次
元の圧力分布センサと、該圧力分布センサで検出された
圧力分布を一時的に記録する記録手段と、検出された圧
力分布中の圧力の極大値及びその座標位置を複数組分計
算する手段と、一時的に記録された過去の圧力分布及び
現在の圧力分布とを比較してその変化を演算により求め
る手段と、前記演算により操作方法命令種別を判別する
手段を含んで座標入力及び操作方法指示装置を構成した
ことを特徴とする。 【0009】 【発明の実施の形態】以下に本発明の実施の形態を添付
図面に基づいて説明する。 【0010】オブジェクト(対象物)を直接操作する感
覚が必要な応用例として、2次元グラフィックモデル等
を変形編集操作するシステムを考える。図1は本発明の
特徴を最も良く表す図面であり、同図において、101
はディスプレイ装置であり、3Dグラフィックモデル等
を変形編集操作するアプリケーションにより、本発明の
操作対象となるオブジェクトが表示される。 【0011】102はタッチパネル部であり、縦横の升
目上に配置された多数の感圧センサ107から成る。本
実施の形態においては、3mm角の感圧センサを2mm
の間隔で配置した。 【0012】103は圧力分布判定器であり、タッチパ
ネル部102上に配された感圧センサ107をスキャン
し、圧力が検出された感圧センサ107の位置と感圧値
とを判定する。 【0013】104は圧力分布判定器103で判定され
た複数スキャン分の圧力分布情報を記憶するバッファで
あり、一番古い情報から順に圧力分布情報を取り出すこ
とができる。 【0014】105は操作種別及び操作対象座標の判別
器であり、図6に示すアルゴリズムに基づいて圧力分布
判定器103から得た最新の圧力分布情報と、圧力分布
情報記憶バッファ104から得た以前の圧力分布情報の
変化から、操作対象となる座標位置と操作種別情報とを
判別する。 【0015】106は疑似マウス制御ドライバソフトウ
ェアであり、操作種別及び操作対象座標判別器105で
判別された操作対象座標位置並びに操作種別情報をOS
又はアプリケーションに適応する形式に変換する。 【0016】図2は本発明のシステムが利用される状況
を説明する概念図であり、これらの図に基づいて本発明
の装置・システムの概要を説明する。 【0017】図2において、202はコンピュータであ
り、文字データ入力のためのキーボード203、画像表
示のためのディスプレイ装置200(ディスプレイケー
ブル205で接続)が接続されている。又、オペレータ
207による仮想空間に対する操作入力用の平面状位置
検出装置としてのタッチパネル201がデータ転送用ケ
ーブル206を介してコンピュータ202に接続されて
いる。 【0018】コンピュータ202は、タッチパネル20
1をスキャンして圧力分布を判定し、前記圧力分布情報
を記憶し、前記圧力分布情報と、記録された圧力分布情
報とを比較し、比較データに基づいて操作対象となる座
標位置並びに操作種別を判定し、この結果に基づいた仮
想空間上のモデルや視点への操作の反映、ディスプレイ
表示用画像の生成処理、その他オペレータからのデータ
入力やコマンド入力の処理を実行する。 【0019】システムのオペレータ207が画像表示シ
ステムを起動すると、コンピュータ202は、先ず編集
対象のモデル204のデータを読み込む。次に、オペレ
ータ207は、キーボード203を用いて位置検出装置
関連の初期値を入力する。初期値入力後、ディスプレイ
装置200上に前記モデル204が表示されてタッチパ
ネルによる編集可能状態となる。 【0020】ここで、システムのオペレータ207は、
タッチパネル201から位置を入力すると、その検出位
置はRS−232C等のシリアル転送によりコンピュー
タ202に送られる。そして、コンピュータ202は、
これらの検出位置に基づいて適切にモデル204の頂点
座標変更又はモデルの回転を行う。 【0021】次に、コンピュータ202は、モデルの各
データに基づいて2次元画像を生成し、ディスプレイ装
置200に表示させる。そして、オペレータ207がタ
ッチパネル201の操作によりシステム終了のコマンド
を送ると、コンピュータ202は、編集後のモデルデー
タをファイルヘ書き出した後、システムを終了する。 【0022】以上の実行により、システムのオペレータ
207は、タッチパネル201を用いて、より直感的な
操作により、モデルの変形や目転を実行することが可能
となる。 【0023】図4及び図5において、タッチパネル部3
00に手のひら全体を押し当てた状態を示したものが3
01である。それぞれの升目には独立して圧力を検出可
能な感圧センサが配されているが、310として圧力が
検出された感圧センサだけを示している。 【0024】ところで、タッチパネル300に触れるこ
とで何らかの操作指示を行う方法としてこれまで用いら
れてきた方法は、302に示すような1本の指先だけを
押し当てる方法である。このとき、複数の感圧センサで
同時に圧力が検出されることが起こり得るが、ここでは
検出された圧力が極大値を示す点311をもって操作対
象位置と判断している。 【0025】312はタッチパネル部300における各
感圧センサの位置を示すために導入されたx,y座標の
原点である。313は、タッチパネル部300の上に押
し当てられた手のひらを示す。手のひら全体を押し当て
た場合、タッチパネル部300の表面に触れる部分全体
に均等な圧力を掛けることはてせきないため、手のひら
が覆う範囲のうち一部しか圧力が検出されないか又は検
出される圧力は均一ではない。 【0026】ここで、1本の指をタッチパネル部300
上のある位置に押し当て303、そのまま別の位置に移
動させる304の場合、この動作は疑似マウス制御ドラ
イバ106によって一般的なマウス装置におけるポイン
タの移動動作に置き換えることが可能である。 【0027】又、或る時系列において1本の指先を押し
付けた後、その位置を移動することなく押し付けを止め
た場合、マウス装置におけるクリック動作をしたものと
見なすことができる。このため、本発明は既に流通して
いる一般のアプリケーションプログラムと同時に利用す
ることができる。 【0028】305は手のひらの広い範囲をタッチパネ
ル部300に押し当てた状態である。手のひらの広い範
囲で押し当てたまま矢印方向に手のひらを移動させた場
合306、これは画面中の対象オブジェクトを移動する
操作を指示していると考える。 【0029】321のように複数の指先を用いて2つ以
上の点を押さえ、その点同士の距離(又は位置関係)を
変化させることなく、回転するような動作をさせた場合
322には、画面中の対象オブジェクトを回転させる操
作を指示しているものと考える。 【0030】320は321中の極大点a,b,cの重
心点Gである。323のように複数の指先を用いて2つ
以上の点を押さえ、それぞれの点と各極大点との距離を
小さくするような動作、或は指先を互いに近付けるよう
な動作324をさせた場合には、対象オブジェクトを縮
小させる操作を指示しているものと考える。 【0031】325のように複数の指先を用いて2つ以
上の点を押さえ、それぞれの点と各極大点との距離を大
きくするような動作、或は指先を互いに遠ざけるような
動作326をさせた場合には、対象オブジェクトを拡大
させる操作を指示しているものと考える。これらの操作
指示は、何れもその操作対象オブジェクトと操作種別を
同時に指定することができるため、2次元グラフィック
モデル等を変形編集操作することが容易になる。これら
の操作は図6に示されるアルゴリズムによって判別する
ことができる。以下にこのアルゴリズムを順を追って説
明する。 【0032】ステップ401では、圧力分布判定器10
3の作用により、タッチパネル部102上に配されたそ
れぞれの感圧センサ107に通電し、その抵抗値の変化
を求めることによってそれぞれの感圧センサ107から
圧力を検出する。 【0033】ステップ402では、ステップ401で判
定された圧力分布情報を圧力分布情報記憶バッファ10
4に格納すると同時に、このバッファ104に残された
最古の圧力分布情報を取り出す。このバッファ104に
おける記憶回数は、401での圧力分布判定の頻度に応
じて自由に設定することができる。 【0034】ステップ403では、ステップ401で判
定された圧力分布情報に基づき、それぞれの圧力検出点
での圧力値をその検出点に隣接する感圧センサ107に
おける圧力検出値と比較し、8近傍における極大値を算
出する。次いで、これらの極大点の座標をベクトル
(x,y)として平均値を求めることによって、各極大
点間の現在の重心位置座標Gを求めている。 【0035】ステップ404では、401で判定された
現在の圧力分布情報から、圧力の検出されたセンサの数
(面積)と圧力値の総和と平均圧力を計算する。 【0036】ステップ405では、ステップ402で取
り出した、以前の圧力分布情報から圧力値が検出された
感圧センサが存在するか否かを調べる。もし、以前に圧
力値が検出されていなかった場合、これは初めてタッチ
パネルに触れたことを示すため、この操作をクリック操
作と解釈420することができる。このとき、ステップ
403で算出された現在の重心点Gをもってこの操作の
対象座標と判断する。 【0037】もし、以前の圧力分布情報中に圧力値が検
出されていた場合には、次のステップ406に進み、以
前の圧力分布情報からステップ403と同様に極大点座
標並びに重心位置座標を求める。 【0038】ステップ407では、現在検出されている
極大点の数を調べる。極大点が1つだけの場合、これは
1本の指で操作していることが想定される。又、極大点
が6点以上存在する場合は、手のひら全体のように広い
範囲を用いた操作を行っていると想定される。 【0039】ステップ408では、ステップ407で極
大点が5点以下と判断された場合に、圧力の検出面積の
総計が30ポイントより大きいか否かを判断する。これ
は、本実施の形態における感圧センサのサイズ並びに間
隔と一般に人間の指先で同時に押すことができるセンサ
の数との比較から、30ポイントより多くの点で圧力が
検出されている場合、指先以外の部位を用いていると判
断できることによる。センサのサイズ並びに間隔を変更
した場合にはこの判断に用いるポイント数並びに極大点
を判別するための近傍数も当然変化する。 【0040】ところで、ステップ407において、30
2のように、極大点が1つだけしか存在しないか、或は
301のように6つ以上存在すると判定された場合並び
にステップ408において圧力の検出面積の総計が30
ポイントより大きいと判定された場合、ステップ414
において現在の各極大点の成す重心位置と以前の各極大
点の成す重心位置とが変化しているか否かを判断する。 【0041】ここで、重心位置に変化が無いと判断され
る場合には、タッチパネルに手を触れた部分が移動して
いないことを意味するため、この操作もクリック操作と
解釈421することができる。このとき、ステップ40
3で算出された現在の重心点Gをもってこの操作の対象
座標と判断する。 【0042】ステップ414において重心点の座標が移
動したと判断されるにおいて現在の圧力検出ポイントの
数が9よりも小さいと判断される場合で、ステップ41
5において現在の圧力検出ポイントの数が9よりも小さ
いと判断された場合には、303から304への変化の
ように、1本の指で操作を行っていることを示すため、
この操作をポインタ操作と解釈422することができ
る。このとき、ステップ406で算出された以前の重心
点座標をポイント操作開始点座標、ステップ403で算
出された現在の重心点座標をポイント操作終了点座標と
判断する。 【0043】又、1本の指で9ポイント以上の感圧セン
サに圧力を与えることはできないため、ステップ415
で9ポイント以上の点が検出された場合、305から3
06への変化のように、この操作は移動操作と解釈42
3することができる。このとき、ステップ406で算出
された以前の重心点座標を移動操作開始点座標、ステッ
プ403で算出された現在の重心点座標を移動操作終了
点座標と判断する。 【0044】ステップ408において圧力の検出面積の
総計が30ポイント以下であると判定された場合、ステ
ップ409では、重心点Gと各極大点との距離の平均を
現在と以前の圧力情報に基づいて計算する。 【0045】ステップ410では、更に重心点Gと各極
大点との成す角度の平均を現在と以前の圧力情報に基づ
いて計算する。重心点Gと或る極大点との成す角度は、
重心点Gを起点として極大点に向かうベクトルとして計
算することができる。 【0046】ステップ411では、更に各極大点の平均
回転角速度、即ち現在の平均角度と以前の平均角度の差
を計算する。これは、ステップ410で算出されたベク
トルの現在の総和と以前の総和の差として求めることが
できる。又、これは321、322中の記号で表せば、
角aGa’、角bGb’、角cGc’の平均を表す。 【0047】ステップ412では、ステップ411で算
出された平均の回転角速度が一定の値、例えばπ/30
より大きい場合には、321から322への変化のよう
に、操作者が指の位置を回転させていることを意味する
ため、この操作を回転操作と解釈424することができ
る。このとき、ステップ403で算出された現在の重心
点Gをもってこの回転操作の中心座標と判断し、又、ス
テップ411で算出された平均の回転角速度をもって回
転量と判断する。 【0048】ステッブ413では、ステップ409で算
出された現在の重心点Gと各極大点との距離の平均と、
以前の重心点Gと各極大点との距離の平均とを比較す
る。以前より現在の方が距離の平均が小さくなった場合
には、323から324の変化のように、複数の指を互
いに近付けるような動作を行ったと判断できるため、こ
の操作を縮小操作と解釈425することができる。この
とき、ステップ403で算出された現在の重心点もって
この縮小操作の中心座標と判断し、又、ステップ409
で算出された現在との距離平均の差分をもって縮小係数
と判断する。 【0049】又、以前より現在の方が距離の平均が大き
くなった場合には、325から326の変化のように、
複数の指を互いに遠ざけるような動作を行ったと判断す
ることができるため、この操作を拡大操作と解釈425
することができる。このとき、ステップ403で算出さ
れた現在の重心点Gをもってこの拡大操作の中心座標と
判断し、又、ステップ409で算出された現在と以前の
距離平均の差分をもって拡大係数と判断する。 【0050】又、以前と現在とで距離の平均が変化して
いない場合には、ぞれぞれの指が全く移動していない
か、それぞれの指の動きが互いの動きによる効果を相殺
していると判断することができるため、この場合はこの
操作をクリック操作と解釈427する。このとき、ステ
ップ403で算出された現在の重心点座標を操作対象座
標と判断する。 【0051】ステップ416では、以上のステップで解
釈された操作方法種別に従い、それぞれの操作種別に適
した操作対象点座標を与えられているため、これらの操
作指示が必要とされる2次元グラフィックモデル等の変
形編集操作を円滑に実行することができる。 【0052】尚、以上の実施の形態では、タッチパネル
201はディスプレイ装置200とは独立に設置された
が、この代わりに、図3に示すように、透明なタッチパ
ネル221をディスプレイ装置220の表示面に接する
ように設置することも可能である。この場合、システム
のオペレータ227は、ディスプレイ装置220に表示
されたモデル224に直接触れるような感覚でこれまで
説明してきたような各操作を行うことができるため、更
により直感的にモデル224の移動や回転操作を実行す
ることが可能となる。 【0053】 【発明の効果】以上の説明で明らかなように、本発明に
よれば、同時に複数の座標位置を指示できる2次元の圧
力分布センサと、該圧力分布センサで検出された圧力分
布を一時的に記録する記録手段と、検出された圧力分布
中の圧力の極大値及びその座標位置を複数組分計算する
手段と、一時的に記録された過去の圧力分布及び現在の
圧力分布とを比較してその変化を演算により求める手段
と、前記演算により操作方法命令種別を判別する手段を
含んで座標入力及び操作方法指示装置を構成したため、
操作対象座標位置と操作方法命令種別を同時に指示する
ことができるという効果が得られる。
Description: BACKGROUND OF THE INVENTION [0001] 1. Field of the Invention [0002] The present invention relates to an information processing apparatus having a graphical user interface, and to an instruction device for instructing an operation on an arbitrary object on a screen. . 2. Description of the Related Art Conventionally, various planar position detecting devices have been used as devices for instructing a computer terminal of a coordinate position to be operated. However, the planar position detecting device indicates a coordinate (usually a single coordinate) on a screen, and is a general term for an input device for performing various operations based on the coordinate. It is used for designating a figure or character on the screen or selecting a function displayed on the screen by reflecting the movement (dimensionally), the change of the absolute coordinates, or the movement of the pointer on the screen. [0003] In general, devices such as a mouse, a trackball, a touch pen, a tablet, a touch panel, a joystick, and the like are meant. In addition, there is a touch panel as a device that can easily obtain a pseudo sensation such that an operator directly touches an operation target. In a resistive film system (pressure-sensitive system), which is a typical system of this touch panel, a coordinate input surface is formed by stacking two or more glass plates or resin films each having a (transparent) resistor, and an instruction is given on the surface. The two (transparent) resistors contact each other at the point where the contact is made. At this time, a method is employed in which a current is supplied to these resistors to detect a change in the resistance value, thereby determining the contact point and converting the contact point into the position coordinates. [0004] However, one finger is
As an operation using only the book, it can be considered that an operation such as designation of a target point, movement instruction, or the like is to be performed.
Also, although it is conceivable that an operation such as pressing an object in the image displayed at the target point is supposed,
A normal touch panel device has only a coordinate pointing interface by pressing a single fingertip, and has no left button, right button, etc. mounted on a mouse device, so it is possible to specify coordinates, but input commands at the same time. Can not do it. For this reason, as shown in FIG.
As long as only the book is used, the intentions of these operators cannot be conveyed accurately.Therefore, the operation instructions to the program are changed by operating the keyboard device while pressing a specific key, Operation of a plurality of steps, such as performing an operation on a target object after performing a selection operation on an operation menu displayed at a certain position on the screen, is cumbersome and intuitive. [0005] The mouse device usually has one to three buttons. Even in this case, it is necessary to select and drag an object, and to use both buttons and a keyboard for switching operations. There was annoying, such as two actions. [0006] Furthermore, since the operator only operates the object, not the object itself, but the pointer pointing to the object, there is a drawback that the operator does not have a feeling of directly operating the object (object) and is hardly familiar. SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object thereof is to provide a coordinate input and operation method instruction device capable of simultaneously indicating an operation target coordinate position and an operation method instruction type. It is in. [0008] In order to achieve the above object, the present invention provides a two-dimensional pressure distribution sensor which can simultaneously designate a plurality of coordinate positions, and a pressure distribution detected by the pressure distribution sensor. Recording means for temporarily recording; means for calculating a plurality of sets of the maximum value of the pressure in the detected pressure distribution and its coordinate position; and temporarily recorded past pressure distribution and current pressure distribution. A coordinate input and operation method instruction device is configured to include means for comparing and calculating the change by operation and means for determining the operation method instruction type by the operation. Embodiments of the present invention will be described below with reference to the accompanying drawings. As an application example requiring a feeling of directly operating an object (object), a system for deforming and editing a two-dimensional graphic model or the like is considered. FIG. 1 is a drawing that best illustrates the features of the present invention.
Is a display device, on which an object to be operated according to the present invention is displayed by an application for deforming and editing a 3D graphic model or the like. Reference numeral 102 denotes a touch panel, which comprises a number of pressure-sensitive sensors 107 arranged on vertical and horizontal grids. In the present embodiment, a 3 mm square pressure-sensitive sensor is 2 mm
Were arranged at intervals. A pressure distribution determining unit 103 scans the pressure-sensitive sensor 107 disposed on the touch panel unit 102 and determines the position of the pressure-sensitive sensor 107 at which pressure is detected and the pressure-sensitive value. Reference numeral 104 denotes a buffer for storing pressure distribution information for a plurality of scans determined by the pressure distribution determiner 103, and can extract pressure distribution information in order from the oldest information. Reference numeral 105 denotes a discriminator for the operation type and the coordinates to be operated. The latest pressure distribution information obtained from the pressure distribution determiner 103 based on the algorithm shown in FIG. Then, the coordinate position to be operated and the operation type information are determined from the change in the pressure distribution information. Reference numeral 106 denotes a pseudo mouse control driver software which stores information on the operation target coordinate position and the operation type information determined by the operation type and operation target coordinate discriminator 105 by the OS.
Or, convert to a format suitable for the application. FIG. 2 is a conceptual diagram illustrating a situation in which the system of the present invention is used, and an outline of the apparatus / system of the present invention will be described based on these drawings. In FIG. 2, reference numeral 202 denotes a computer to which a keyboard 203 for inputting character data and a display device 200 for image display (connected by a display cable 205) are connected. A touch panel 201 as a planar position detecting device for inputting an operation to a virtual space by an operator 207 is connected to a computer 202 via a data transfer cable 206. The computer 202 is connected to the touch panel 20
1 is scanned to determine the pressure distribution, the pressure distribution information is stored, the pressure distribution information is compared with the recorded pressure distribution information, and a coordinate position and an operation type to be operated are based on the comparison data. Based on the result, reflection of the operation on the model and the viewpoint in the virtual space, generation of a display display image, and other data input and command input from the operator are executed. When the system operator 207 activates the image display system, the computer 202 first reads data of the model 204 to be edited. Next, the operator 207 uses the keyboard 203 to input initial values related to the position detecting device. After the input of the initial value, the model 204 is displayed on the display device 200 and the touch panel can be edited. Here, the system operator 207
When a position is input from the touch panel 201, the detected position is sent to the computer 202 by serial transfer such as RS-232C. Then, the computer 202
Based on these detected positions, the vertex coordinates of the model 204 are changed or the model is rotated appropriately. Next, the computer 202 generates a two-dimensional image based on each data of the model and causes the display device 200 to display the two-dimensional image. When the operator 207 sends a command for terminating the system by operating the touch panel 201, the computer 202 writes the edited model data to a file, and then terminates the system. With the above execution, the operator 207 of the system can use the touch panel 201 to execute the deformation and turn of the model by a more intuitive operation. In FIG. 4 and FIG.
3 shows the state where the entire palm is pressed against 00
01. A pressure-sensitive sensor capable of independently detecting pressure is provided in each cell, but only the pressure-sensitive sensor 310 whose pressure is detected is shown as 310. By the way, the method which has been used as a method of giving some operation instruction by touching the touch panel 300 is a method of pressing only one fingertip as shown by 302. At this time, the pressure may be detected simultaneously by a plurality of pressure sensors. Here, the point 311 at which the detected pressure indicates the maximum value is determined as the operation target position. Reference numeral 312 denotes the origin of the x and y coordinates introduced to indicate the position of each pressure sensor on the touch panel 300. Reference numeral 313 denotes a palm pressed on the touch panel unit 300. When the entire palm is pressed, it is inevitable to apply even pressure to the entire portion touching the surface of the touch panel unit 300, so that only part of the range covered by the palm is detected or the detected pressure is Not uniform. Here, one finger is touched on the touch panel 300
In the case of pressing 303 to a certain position on the upper side and moving 304 to another position as it is, this operation can be replaced by the pseudo mouse control driver 106 with the operation of moving a pointer in a general mouse device. In addition, when a fingertip is pressed in a certain time series and then stopped without moving the position of the fingertip, it can be regarded as a click operation of the mouse device. Therefore, the present invention can be used simultaneously with a general application program already distributed. Reference numeral 305 denotes a state in which a wide area of the palm is pressed against the touch panel 300. When the palm is moved in the direction of the arrow while pressing the palm over a wide area 306, it is considered that this indicates an operation of moving the target object on the screen. In a case 322 where two or more points are pressed with a plurality of fingertips as in 321 and the point is rotated without changing the distance (or positional relationship) between the points, 322 It is assumed that an operation to rotate the target object on the screen is instructed. Reference numeral 320 denotes the center of gravity G of the maximum points a, b, and c in 321. When an operation of pressing two or more points using a plurality of fingertips as in H.323 to reduce the distance between each point and each local maximum point, or an operation 324 of bringing the fingertips closer to each other, Is instructing an operation to reduce the target object. As shown in 325, two or more points are pressed using a plurality of fingertips to increase the distance between each point and each local maximum point, or to perform an operation 326 to move the fingertips away from each other. In this case, it is considered that an operation for enlarging the target object is instructed. In any of these operation instructions, the operation target object and the operation type can be specified at the same time, so that the two-dimensional graphic model or the like can be easily modified and edited. These operations can be determined by the algorithm shown in FIG. The algorithm will be described below step by step. In step 401, the pressure distribution judging device 10
By the operation of 3, the respective pressure-sensitive sensors 107 disposed on the touch panel unit 102 are energized, and a change in the resistance value is obtained, thereby detecting the pressure from each of the pressure-sensitive sensors 107. In step 402, the pressure distribution information determined in step 401 is stored in the pressure distribution information storage buffer 10.
4 and at the same time, the oldest pressure distribution information remaining in the buffer 104 is extracted. The number of storages in the buffer 104 can be set freely according to the frequency of the pressure distribution determination in 401. In step 403, based on the pressure distribution information determined in step 401, the pressure value at each pressure detection point is compared with the pressure detection value of the pressure-sensitive sensor 107 adjacent to the detection point, and the values in the vicinity of 8 are detected. Calculate the local maximum. Next, the coordinates of these local maximum points are used as a vector (x, y) to obtain an average value, thereby obtaining the current center-of-gravity position coordinates G between the local maximum points. In step 404, the sum (average) of the number (area) of pressure-detected sensors, the pressure value, and the average pressure are calculated from the current pressure distribution information determined in step 401. In step 405, it is checked whether or not there is a pressure sensor whose pressure value has been detected from the previous pressure distribution information extracted in step 402. If the pressure value has not been detected before, this indicates that the touch panel has been touched for the first time, and thus this operation can be interpreted as a click operation 420. At this time, the current center of gravity point G calculated in step 403 is determined as the target coordinates of this operation. If a pressure value has been detected in the previous pressure distribution information, the process proceeds to the next step 406, where the maximum point coordinates and the barycentric position coordinates are obtained from the previous pressure distribution information as in step 403. . In step 407, the number of currently detected maximum points is checked. If there is only one maximum point, it is assumed that this is operated with one finger. When there are six or more maximum points, it is assumed that the operation is performed using a wide range such as the entire palm. In step 408, if it is determined in step 407 that the maximum point is 5 or less, it is determined whether or not the total pressure detection area is greater than 30 points. This is because when the pressure is detected at more than 30 points from the comparison between the size and interval of the pressure-sensitive sensor in the present embodiment and the number of sensors that can be generally pressed simultaneously by a human fingertip, Because it can be determined that a part other than is used. When the size and interval of the sensor are changed, the number of points used for this determination and the number of neighbors for determining the maximum point naturally change. In step 407, 30
In the case where it is determined that there is only one local maximum point as in 2, or that there are six or more as in 301, and in step 408 that the total pressure detection area is 30
If it is determined to be larger than the point, step 414
It is determined whether or not the center of gravity position formed by the current local maximum points and the center of gravity position formed by the previous local maximum points have changed. If it is determined that there is no change in the position of the center of gravity, it means that the part touched by the touch panel has not moved, so this operation can be interpreted as a click operation 421. . At this time, step 40
The current coordinates of the center of gravity G calculated in step 3 are determined as the target coordinates of this operation. If it is determined in step 414 that the coordinates of the center of gravity have moved, it is determined that the current number of pressure detection points is smaller than nine.
If it is determined in 5 that the current number of pressure detection points is smaller than 9, it indicates that the operation is performed with one finger as in the change from 303 to 304.
This operation can be interpreted 422 as a pointer operation. At this time, the previous barycenter coordinate calculated in step 406 is determined as the point operation start point coordinate, and the current barycenter coordinate calculated in step 403 is determined as the point operation end point coordinate. Since it is impossible to apply pressure to the pressure sensor at 9 points or more with one finger, step 415 is executed.
If 9 or more points are detected in
As a change to 06, this operation is interpreted as a movement operation.
3 you can. At this time, the previous coordinates of the center of gravity calculated in step 406 are determined as the coordinates of the moving operation start point, and the current coordinates of the center of gravity calculated in step 403 are determined as the coordinates of the moving operation end point. If it is determined in step 408 that the total pressure detection area is not more than 30 points, in step 409, the average of the distance between the center of gravity G and each local maximum point is determined based on the current and previous pressure information. calculate. In step 410, the average of the angle between the center of gravity G and each local maximum point is calculated based on the current and previous pressure information. The angle between the center of gravity G and a certain maximum point is
It can be calculated as a vector headed from the center of gravity G to the maximum point. In step 411, the average rotation angular velocity of each local maximum point, that is, the difference between the current average angle and the previous average angle is calculated. This can be determined as the difference between the current sum of the vectors calculated in step 410 and the previous sum. Also, this can be represented by the symbols in 321 and 322.
The average of the angles aGa ', bGb', and cGc 'is shown. In step 412, the average rotational angular velocity calculated in step 411 is a constant value, for example, π / 30.
If it is larger, it means that the operator is rotating the position of the finger, such as a change from 321 to 322, so this operation can be interpreted as a rotation operation 424. At this time, the current center of gravity G calculated in step 403 is determined as the center coordinate of this rotation operation, and the average rotation angular velocity calculated in step 411 is determined as the rotation amount. In step 413, the average of the distance between the current center of gravity point G calculated in step 409 and each local maximum point is calculated as follows:
The average of the distance between the previous center of gravity point G and each local maximum point is compared. If the average of the distances is smaller in the present than before, it can be determined that an operation of bringing a plurality of fingers closer to each other has been performed, as in a change from 323 to 324, and this operation is interpreted as a reduction operation 425. can do. At this time, the current center of gravity point calculated in step 403 is determined as the center coordinate of this reduction operation.
Is determined as the reduction coefficient based on the difference of the distance average from the current distance calculated in the above. When the average of the distance is larger in the present than before, as shown in the change from 325 to 326,
Since it can be determined that an operation of moving a plurality of fingers away from each other has been performed, this operation is interpreted as an enlargement operation 425.
can do. At this time, the current center-of-gravity point G calculated in step 403 is determined as the center coordinate of the enlargement operation, and the difference between the current and previous distance averages calculated in step 409 is determined as the enlargement coefficient. If the average of the distances has not changed between before and now, either the fingers have not moved at all, or the movement of each finger cancels out the effect of each other's movement. In this case, it is interpreted as a click operation 427 in this case. At this time, the current barycentric point coordinates calculated in step 403 are determined as the operation target coordinates. In step 416, since the operation target point coordinates suitable for each operation type are given in accordance with the operation method type interpreted in the above steps, these two-dimensional graphic models requiring these operation instructions are provided. Etc. can be smoothly executed. In the above embodiment, the touch panel 201 is installed independently of the display device 200. Instead, a transparent touch panel 221 is provided on the display surface of the display device 220 as shown in FIG. It is also possible to install so that it touches. In this case, the operator 227 of the system can perform each operation as described above with a feeling of directly touching the model 224 displayed on the display device 220, so that the movement of the model 224 can be further intuitively performed. And rotation operations can be performed. As is apparent from the above description, according to the present invention, a two-dimensional pressure distribution sensor capable of simultaneously indicating a plurality of coordinate positions and a pressure distribution detected by the pressure distribution sensor Recording means for temporarily recording; means for calculating a plurality of sets of the maximum value of the pressure in the detected pressure distribution and its coordinate position; and temporarily recorded past pressure distribution and current pressure distribution. Since the coordinate input and operation method instruction device is configured to include means for comparing and calculating the change by calculation and means for determining the operation method command type by the calculation,
The effect that the operation target coordinate position and the operation method command type can be simultaneously instructed is obtained.

【図面の簡単な説明】 【図1】本発明の構成を表す図である。 【図2】本発明のシステムが利用される状況を説明する
概念図である。 【図3】本発明のシステムが利用される状況を説明する
概念図である。 【図4】本発明において識別される操作を示す図(その
1)である。。 【図5】本発明において識別される操作を示す図(その
2)である。 【図6】本発明のフローチャートである。 【符号の説明】 101 ディスプレイ装置 102 タッチパネル部 103 圧力分布判定器 104 圧力分布情報記憶バッファ 105 操作種別及び操作対象座標判別器 106 疑似マウス制御ドライバソフトウェア 200 ディスプレイ装置 201 タッチパネル 202 コンピュータ 203 キーボード装置 204 表示されたモデル 205 ディスプレイケーブル 206 データ転送用ケーブル 207 オペレータ
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram showing a configuration of the present invention. FIG. 2 is a conceptual diagram illustrating a situation in which the system of the present invention is used. FIG. 3 is a conceptual diagram illustrating a situation in which the system of the present invention is used. FIG. 4 is a diagram (part 1) showing an operation identified in the present invention. . FIG. 5 is a diagram (part 2) illustrating an operation identified in the present invention. FIG. 6 is a flowchart of the present invention. DESCRIPTION OF SYMBOLS 101 display device 102 touch panel unit 103 pressure distribution determination device 104 pressure distribution information storage buffer 105 operation type and operation target coordinate determination device 106 pseudo mouse control driver software 200 display device 201 touch panel 202 computer 203 keyboard device 204 displayed Model 205 Display cable 206 Data transfer cable 207 Operator

Claims (1)

【特許請求の範囲】 【請求項1】 同時に複数の座標位置を指示できる2次
元の圧力分布センサと、該圧力分布センサで検出された
圧力分布を一時的に記録する記録手段と、検出された圧
力分布中の圧力の極大値及びその座標位置を複数組分計
算する手段と、一時的に記録された過去の圧力分布及び
現在の圧力分布とを比較してその変化を演算により求め
る手段と、前記演算により操作方法命令種別を判別する
手段を含んで構成されることを特徴とする座標入力及び
操作方法指示装置。
Claims: 1. A two-dimensional pressure distribution sensor capable of simultaneously indicating a plurality of coordinate positions, recording means for temporarily recording a pressure distribution detected by the pressure distribution sensor, and Means for calculating a plurality of sets of the maximum value of the pressure in the pressure distribution and its coordinate position, means for comparing the temporarily recorded past pressure distribution and the current pressure distribution and calculating the change, and A coordinate input and operation method instruction device comprising means for determining an operation method instruction type by the calculation.
JP2001312087A 2001-10-10 2001-10-10 Coordinate input and operational method directing device Pending JP2003122506A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001312087A JP2003122506A (en) 2001-10-10 2001-10-10 Coordinate input and operational method directing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001312087A JP2003122506A (en) 2001-10-10 2001-10-10 Coordinate input and operational method directing device

Publications (1)

Publication Number Publication Date
JP2003122506A true JP2003122506A (en) 2003-04-25

Family

ID=19130799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001312087A Pending JP2003122506A (en) 2001-10-10 2001-10-10 Coordinate input and operational method directing device

Country Status (1)

Country Link
JP (1) JP2003122506A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158842A (en) * 2006-12-25 2008-07-10 Xanavi Informatics Corp Map display device
JP2009187365A (en) * 2008-02-07 2009-08-20 Nec Corp Portable equipment, user confirmation system, key input method and computer program
JP2009282634A (en) * 2008-05-20 2009-12-03 Canon Inc Information processor, its control method, program and storage medium
JP2010113608A (en) * 2008-11-07 2010-05-20 Sharp Corp Operation reception device and computer program
JP2010272064A (en) * 2009-05-25 2010-12-02 Hitachi Displays Ltd Sensor device for detecting contact or proximity of object and display device having the same mounted thereon
JP2011108276A (en) * 2004-07-15 2011-06-02 N-Trig Ltd Method of detecting user interaction and computer input device
JP2013503395A (en) * 2009-08-27 2013-01-31 シンボル テクノロジーズ, インコーポレイテッド System and method for pressure based authentication of signatures on touch screens
JP2013143141A (en) * 2012-01-09 2013-07-22 Samsung Electronics Co Ltd Display apparatus, remote control apparatus, and searching methods thereof
JP2014042334A (en) * 2005-03-04 2014-03-06 Apple Inc Multi-functional hand-held device
US9047009B2 (en) 2005-03-04 2015-06-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US9785258B2 (en) 2003-09-02 2017-10-10 Apple Inc. Ambidextrous mouse
JP2019101876A (en) * 2017-12-05 2019-06-24 アルプスアルパイン株式会社 Input device, input control device, operated device, and program
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9983742B2 (en) 2002-07-01 2018-05-29 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US9785258B2 (en) 2003-09-02 2017-10-10 Apple Inc. Ambidextrous mouse
US10474251B2 (en) 2003-09-02 2019-11-12 Apple Inc. Ambidextrous mouse
US10156914B2 (en) 2003-09-02 2018-12-18 Apple Inc. Ambidextrous mouse
JP2011108276A (en) * 2004-07-15 2011-06-02 N-Trig Ltd Method of detecting user interaction and computer input device
US10386980B2 (en) 2005-03-04 2019-08-20 Apple Inc. Electronic device having display and surrounding touch sensitive surfaces for user interface and control
US11360509B2 (en) 2005-03-04 2022-06-14 Apple Inc. Electronic device having display and surrounding touch sensitive surfaces for user interface and control
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
JP2014042334A (en) * 2005-03-04 2014-03-06 Apple Inc Multi-functional hand-held device
US10921941B2 (en) 2005-03-04 2021-02-16 Apple Inc. Electronic device having display and surrounding touch sensitive surfaces for user interface and control
US9047009B2 (en) 2005-03-04 2015-06-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
JP2015133722A (en) * 2005-03-04 2015-07-23 アップル インコーポレイテッド Multi-functional hand-held device
JP2008158842A (en) * 2006-12-25 2008-07-10 Xanavi Informatics Corp Map display device
JP2009187365A (en) * 2008-02-07 2009-08-20 Nec Corp Portable equipment, user confirmation system, key input method and computer program
US8917245B2 (en) 2008-05-20 2014-12-23 Canon Kabushiki Kaisha Information processing apparatus and control method thereof
JP2009282634A (en) * 2008-05-20 2009-12-03 Canon Inc Information processor, its control method, program and storage medium
JP2010113608A (en) * 2008-11-07 2010-05-20 Sharp Corp Operation reception device and computer program
JP2010272064A (en) * 2009-05-25 2010-12-02 Hitachi Displays Ltd Sensor device for detecting contact or proximity of object and display device having the same mounted thereon
JP2015097128A (en) * 2009-08-27 2015-05-21 シンボル テクノロジーズ, インコーポレイテッド Systems and methods for pressure-based authentication of signature on touch screen
JP2013503395A (en) * 2009-08-27 2013-01-31 シンボル テクノロジーズ, インコーポレイテッド System and method for pressure based authentication of signatures on touch screens
JP2013143141A (en) * 2012-01-09 2013-07-22 Samsung Electronics Co Ltd Display apparatus, remote control apparatus, and searching methods thereof
JP2019101876A (en) * 2017-12-05 2019-06-24 アルプスアルパイン株式会社 Input device, input control device, operated device, and program
JP7103782B2 (en) 2017-12-05 2022-07-20 アルプスアルパイン株式会社 Input device and input control device

Similar Documents

Publication Publication Date Title
US8614664B2 (en) Multi-touch multi-dimensional mouse
US20160364138A1 (en) Front touchscreen and back touchpad operated user interface employing semi-persistent button groups
JP5295328B2 (en) User interface device capable of input by screen pad, input processing method and program
US9529523B2 (en) Method using a finger above a touchpad for controlling a computerized system
US9891820B2 (en) Method for controlling a virtual keyboard from a touchpad of a computerized device
EP2717120B1 (en) Apparatus, methods and computer program products providing finger-based and hand-based gesture commands for portable electronic device applications
US9891821B2 (en) Method for controlling a control region of a computerized device from a touchpad
JP5456529B2 (en) Method and computer system for manipulating graphical user interface objects
EP0938039B1 (en) An apparatus for manipulating an object displayed on a display device
US9477874B2 (en) Method using a touchpad for controlling a computerized system with epidermal print information
JP4734435B2 (en) Portable game device with touch panel display
CN107066137B (en) Apparatus and method for providing user interface
US20170017393A1 (en) Method for controlling interactive objects from a touchpad of a computerized device
US20110205169A1 (en) Multi-touch input apparatus and its interface method using hybrid resolution based touch data
US9542032B2 (en) Method using a predicted finger location above a touchpad for controlling a computerized system
US20150100910A1 (en) Method for detecting user gestures from alternative touchpads of a handheld computerized device
US20150363038A1 (en) Method for orienting a hand on a touchpad of a computerized system
JPH1173271A (en) Instructing device and processor and storage medium
WO1998000775A1 (en) Touchpad with scroll and pan regions
WO1998000775A9 (en) Touchpad with scroll and pan regions
WO2010017711A1 (en) Execution method, apparatus and movable terminal for graphic touch commands
TWI452494B (en) Method for combining at least two touch signals in a computer system
JP2003122506A (en) Coordinate input and operational method directing device
EP2474890A1 (en) Virtual keyboard configuration putting fingers in rest positions on a multitouch screen, calibrating key positions thereof
CN102478996A (en) Method for reflecting finger motion upon touch panel to computer screen