JP2008159032A - 操作制御方法およびシステム - Google Patents

操作制御方法およびシステム Download PDF

Info

Publication number
JP2008159032A
JP2008159032A JP2007274220A JP2007274220A JP2008159032A JP 2008159032 A JP2008159032 A JP 2008159032A JP 2007274220 A JP2007274220 A JP 2007274220A JP 2007274220 A JP2007274220 A JP 2007274220A JP 2008159032 A JP2008159032 A JP 2008159032A
Authority
JP
Japan
Prior art keywords
pointer
contact
contact corresponding
distance
touch detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007274220A
Other languages
English (en)
Inventor
Kuan-Chun Tang
冠群 湯
Yen-Chang Chiu
延誠 邱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Elan Microelectronics Corp
Original Assignee
Elan Microelectronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Elan Microelectronics Corp filed Critical Elan Microelectronics Corp
Publication of JP2008159032A publication Critical patent/JP2008159032A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract


【課題】操作制御方法とシステムを提供する。
【解決手段】本発明は、タッチ検出手段上の複数のポインタの接触を検出し、動きを検出し、その動きに基づいて操作命令を決定する。本発明の操作制御方法は、タッチ検出手段上の複数のポインタに各々対応する接触を検出するステップ、各接触の動きを検出するステップ及び各接触の動きに基づいて操作命令を決定するステップを含む。本発明の操作制御システムは、タッチ検出手段及びタッチ検出手段上の複数のポインタに対応する接触を検出し、その接触の動きを検出し、動きに基づいて操作命令を決定する処理モジュールを含む。
【選択図】 図1

Description

本発明は、操作制御方法およびシステムに関し、特に、タッチ検出手段(touch-sensitive mechanism)上の複数の接触に基づいて特定のオブジェクトの操作を制御する、タッチ検出手段と統合された操作制御方法およびシステムに関するものである。
近年、いくつかのシステムにおいて使用者が所望の処理、操作を実行するために、タッチ検出手段が提供されている(例えば特許文献1参照)。これらのシステムでは、使用者は、キーパッドを通して命令を入力することなく、タッチ検出手段上に接触することで、直接、制御を行うことができる。
特開2006−317682号公報
タッチ検出手段は、タッチセンサーの技術を用いて、タッチ検出手段上のポインタ(使用者の指、またはスタイラスなど)の接触位置を検出することができる。キャパシタンスセンシング技術は、通常のタッチセンサー技術である。行と列に配列された電極マトリクスが静電容量式のタッチ検出手段にセットされ、ポインタがタッチ検出手段の表面に接触、または近接した時、接触位置の静電容量が変えられる。タッチ検出手段の制御ユニットは、静電容量の変化量を検出することができ、検出した変化量をその接触の状態を示す量としての当該接触に対応したセンシング量に変換し、接触位置を特定し、それに応じてその接触が有効かどうかを決定する。
タッチ検出手段の利便性と多様性により、タッチ検出手段は、新たに開発された装置の中で評判の良い、必要な入力インターフェースとなっている。しかし、タッチ検出手段のための従来の操作制御構造は、選択とドラッグ機能のみを提供し、種々の装置やアプリケーションのための制御要求を十分に満たしていない。
本発明は、新たな操作制御方法とシステムを提供する。
操作制御方法の実施例としては、タッチ検出手段上の少なくとも2つのポインタにそれぞれ対応する接触が検出され、タッチ検出手段上の接触の動きが検出され、前記動きに基づいて操作命令が決定される。
操作制御システムの実施例は、タッチ検出手段と処理モジュールを含む。処理モジュールは、タッチ検出手段上の少なくとも2つのポインタにそれぞれ対応する接触を検出する。処理モジュールは、タッチ検出手段上の接触の動きを検出し、動きに基づいて操作命令を決定する。
いくつかの実施例では、タッチ検出手段上の2つのポインタに対応する接触の動きが互いから離れた場合、決定された操作命令は、特定オブジェクトを開ける。タッチ検出手段上の2つのポインタに対応する接触の動きが互いに近寄った場合、決定された操作命令は、特定オブジェクトを閉める。タッチ検出手段上の2つのポインタに対応する接触が交互に現れ、接触の動きが生じない場合、決定された操作命令が特定オブジェクトに人物のステップ(足踏み、歩行)とドラム(太鼓を叩くように物品を叩いたり、足をばたつかせたり、床を踏み鳴らす等の行為)の操作などの特定操作を行わせる。タッチ検出手段上の2つのポインタに対応する接触が交互に現れ、接触の動きが生じた場合、決定された操作命令が特定オブジェクトに人物のスライドなどの特定操作を行わせる。
本発明の操作制御方法とシステムは、有形メディア(tangible media)に統合されたプログラムコードの形式を取ることができる。プログラムコードが機械にロードされて実行された時、この機械は、本発明の方法を実行する装置となることができる。
本発明についての目的、特徴、長所が一層明確に理解されるよう、以下に実施形態を例示し、図面を参照にしながら、詳細に説明する。
図1は、操作制御システムの実施例を表す概略図である。
操作制御システム100は、タッチ検出手段110、処理モジュール120、ホストプロセッサ130と、表示ユニット140を含む。タッチ検出手段110は、タッチ表面を有する。この実施例では、タッチ検出手段110は、少なくとも二次元センサーを含むがこれを限定するものではない。また、タッチ検出手段110は、任意のタッチセンサー技術を用いて、タッチ検出手段上のポインタ(使用者の指、またはスタイラスなど)の接触位置と対応するセンシング量を検出することができる。センシング量は、その接触の状態を示す量であって、例えばタッチ検出手段が静電容量式のタッチパネルである場合には接触による静電容量の変化量を変換して得られる量であり、その静電容量の変化量そのものであってもよい。処理モジュール120は、タッチ検出手段上のポインタに対応する接触の動きに基づいて操作命令を決めることができる。ホストプロセッサ130は、操作命令に基づいて、特定のオブジェクトに処理、操作、作業(本出願において単に操作と言う場合には、これらを総称するものである。)を行わせることができる。
また、表示ユニット140は、特定のオブジェクトと特定のオブジェクトによって実行された操作を表示することができる。いくつかの実施例では、ホストプロセッサ130は、表示ユニット140を通して一連のフレームを再生し、操作命令を完成することができる。いくつかの実施例では、タッチ検出手段110は、表示ユニット140の上に貼り付けられるITO(インジウムスズ酸化物)の透明なタッチ表面を有することができる。ポインタがタッチ検出手段110の表面に接触した時、接触は、特定のオブジェクトの特定部位にそれぞれ対応つけられる。
図2は、表示ユニットの例を表す概略図である。タッチ検出手段110は、表示ユニット140の任意の面に貼り付けられることができ、図2に示す例ではタッチ検出手段は表示ユニット140の表示画面上に貼り付けられている。図2に示す例では、表示ユニット140には、両手の端210と220を有する人物(特定のオブジェクト)200が表示されている。この実施例において、仮に2本の指が図示のようにタッチ検出手段110の表面に接触した時、その接触は、その接触したタッチ検出手段上の位置と表示されている人物200の表示ユニット140上の位置との対応に基づいて、人物200の両手の端210と220にそれぞれ対応付けられる。このような方法により、接触の検出と表示とが同期して制御された結果が得られる。なお、いくつかの実施例では、処理モジュール120は、タッチ検出手段110の制御ユニットであることができる。いくつかの実施例では、処理モジュール120は、CPUまたはマイクロプロセッサなどのコントローラーであることができる。
図3は、操作制御方法の実施例の流れ図である。
ステップS310では、タッチ検出手段上の指、またはスタイラスなどの少なくとも2つの指の接触が検出される。ステップS320では、各接触のセンシング量が得られる。ステップS330では、各センシング量がスレッショルド値を超えるかどうかが判断される。センシング量がスレッショルド値を超えない場合、ポインタが誤ってタッチ検出手段に接触された可能性があり、そのためにこの接触が削除され、手順がステップS310に戻る。センシング量がスレッショルド値を超える場合、ステップS340では、2つのポインタに対応する接触の動きが検出される。ステップS350では、動きに基づいて操作命令が決定される。ステップS360では、操作命令がホストプロセッサに出力されて実行される。なお、操作命令の実行中、ホストプロセッサ130は、表示ユニット140に関連した操作を更に表示する。
いくつかの実施例では、各種の操作命令は、タッチ検出手段上のポインタの動きに基づいて決定することができる。例えば、操作命令を決定する方法は、2つの接触の位置の間の第1距離を計算し、続いて、接触が維持された状態で動くかどうかを判断する。接触が維持されているかどうかの判断は、それぞれの接触に対応するセンシング量と、センシング量がスレッショルド値を超えるかどうかによって判断される。
センシング量がスレッショルド値を超える場合、タッチ検出手段の表面に維持されている接触と、2つの接触の位置の間の第2距離が再計算される。そして、第2距離が第1距離より大きいかどうかが判断される。第2距離が第1距離より大きい場合、操作命令は、接触の位置と距離の一方又は両方に基づいて、特定のオブジェクトを開けることであると決定される。第2距離が第1距離より大きくない場合、操作命令は、接触の位置と距離の一方又は両方に基づいて特定のオブジェクトを閉めることであると決定される。
特定のオブジェクトを開ける、または閉めるための方法と程度は、接触の位置と距離の一方又は両方に基づいて決定することができる。いくつかの実施例では、特定のオブジェクトを開ける動作は、ドアを開ける、または両手を広げる操作を含むことができる。
同様に、特定のオブジェクトを閉めるための方法と程度は、接触の位置と距離の一方又は両方に基づいて決定することができる。いくつかの実施例では、特定のオブジェクトを閉める動作は、ドアを閉める、または両手を閉じる操作を含むことができる。
いくつかの実施例では、2つの接触間の距離の変化速度を更に検出して記録することができる。特定オブジェクトを開ける、または閉める方法と程度は、速度に基づいて決定されてよく、速度が異なる場合はその行為(behavior)を異ならせることができる。
図4(A)と図4(B)は、両手を広げる操作例を表す概略図である。
図4(A)に示すように、左右両手の指がタッチ検出手段に接触した時、対応するセンシング量(LとR)が得られる。510は、X軸のセンシング量の曲線を表しており、520は、Y軸のセンシング量の曲線を表している。2つの指の接触位置の間の距離d1は、X軸の曲線から得られることができる。2つの指がタッチ検出手段に接触したままで動いた場合、2つの指の接触位置の間の新しい距離d2は、X軸の曲線から再度、得られることができる。この例では、左右両手の指が互いから離れることでd2>d1になり、操作命令は、図4(B)に示すように、特定のオブジェクト(例えば人物の手)を広げる。同様に、2つの指が互いに近寄った場合、d2<d1になり、操作命令は、人物の手を閉じる。
3つのポインタを備えるいくつかの実施例では、操作命令を決定する方法は、任意の2つの接触の位置の間の元の距離を計算し、接触が維持された状態で動くかどうかを判断する。接触が位置されているかどうかの判断は、それぞれの接触に対応するセンシング量がスレッショルド値を超えるかどうかによって判断される。センシング量がスレッショルド値を超える場合、任意の2つの接触の間の新しい距離は、再計算され、任意の2つの接触の間の新しい距離が対応する元の距離より小さいかどうか判断する。そうである場合、操作命令は、特定オブジェクトを捕まえることを決定する。特定のオブジェクトを捕まえる方法と程度は、接触位置、接触の間の距離と、または接触の距離変化の速度に基づいて決定されることができる。
図5(A)と5(B)は、オブジェクトを捕まえる操作例を表す概略図である。
図5(A)に示すように、左指、中指と、右指がタッチ検出手段に接触した場合、対応するセンシング量(L、Mと、R)が得られる。510は、X軸のセンシング量の曲線を表しており、520は、Y軸のセンシング量の曲線を表している。左指と中指の接触位置の間の距離d1、中指と右指の接触位置の間の距離d2と、左指と右指の接触位置の間の距離d3は、X軸の曲線から得られることができる。3本の指がタッチ検出手段に接触したままで動いた場合、左指と中指の接触位置の間の新しい距離d11、中指と右指の接触位置の間の新しい距離d22と、左指と右指の接触位置の間の新しい距離d33は、X軸の曲線から再度、得られることができる。この例では、3本の指が互いに近寄ることでd11<d1、d22<d2、またはd33<d3になり、図5(B)に示すように、操作命令は、例えば、特定オブジェクトを捕まえる、キャッチ行為(catch behavior)であることができる。
いくつかの例では、操作命令を決定する方法は、2つのポインタにそれぞれ対応する接触が交互に現れるかどうかを判断する。そうである場合、接触が現れた時、動いたかかどうかが判断される。動きが生じなかった場合、操作命令が特定オブジェクトに人物のステップ(character stepping)またはドラム(character drumming)を含む操作例を行わせるように決定される。動きが生じた場合、操作命令が特定オブジェクトに人物のスライド(character sliding)を含む操作例を行わせるように決定される。
図6は、特定操作が人物のステップ/ドラム、または人物のスライドかどうかを決定する方法の実施例の流れ図である。
ステップ602では、第1ポインタに対応する接触が検出される。ステップ604では、第1ポインタに対応する接触が動くかどうかが判断される。動かない場合(ステップ604でNOの場合)、ステップ606では、第1ポインタに対応する接触が第1時間を超えるかどうかが判断される。超えない場合、手順が終了する。超える場合、ステップ608では、第1ポインタに対応する接触の終了(第1ポインタがタッチ検出手段の表面から離れる)が検出される。
ステップ610では、第3時間が経過したかどうかが判断される。経過した場合、ステップ612では、第2ポインタに対応する接触が検出される。
ステップ614では、第2ポインタに対応する接触が第2時間を超えるかどうかが判断される。超えない場合、手順が終了する。超える場合、ステップ616では、特定操作が人物のステップまたはドラムとして決定される。
第1ポインタに対応する接触が動いた時(ステップ604でYESの場合)、ステップ618では、第1ポインタに対応する接触が第1時間を超えるかどうかが判断される。超えない場合、手順が終了する。超える場合、ステップ620では、第1ポインタに対応する接触の終了が検出される。
ステップ622では、第3時間が経過したかどうかが判断される。経過した場合、ステップ624では、第2ポインタに対応する接触が検出される。
ステップ626では、第2ポインタに対応する接触が動くかどうかが判断される。動かない場合、手順が終了する。動く場合、ステップ628では、第2ポインタに対応する接触が第2時間を超えるかどうかが判断される。超えない場合、手順が終了する。超える場合、ステップ630では、特定操作が人物のスライドとしてとして決定される。
図7(A)と7(B)は、人物のステップの操作例を表す概略図である。
図7(A)に示すように、第1ポインタは、タッチ検出手段に接触し、対応するセンシング量(L)を得る。第1ポインタは、時間T1の後、タッチ検出手段を離れる。時間T2の後、図7(B)に示すように、第2ポインタは、タッチ検出手段に接触し、対応するセンシング量(R)を得る。第2ポインタは、時間T3の後、タッチ検出手段を離れる。T1は、所定の第1時間を超えなければならず、T2は、所定の第3時間を超えなければならず、T3は、所定の第2時間を超えなければならない。上述の動作が終了した後、人物がステップの行為を行う。
図8(A)と8(B)は、人物のスライドの操作例を表す概略図である。
図8(A)に示すように、第1ポインタは、タッチ検出手段に接触し、対応するセンシング量(L)を得る。第1ポインタは、タッチ検出手段に維持されて、P1からP2に動く。第1ポインタの動きは、Y軸520のセンシング量の曲線から検出されることができる。第1ポインタは、時間T1の後、タッチ検出手段を離れる。時間T2の後、図8(B)に示すように、第2ポインタは、タッチ検出手段に接触し、対応するセンシング量(R)を得る。第2ポインタは、タッチ検出手段に維持され、P3からP4に動く。第2ポインタの動きは、Y軸520のセンシング量の曲線から検出されることができる。第2ポインタは、時間T3の後、タッチ検出手段を離れる。同様に、T1は、所定の第1時間を超えなければならず、T2は、所定の第3時間を超えなければならず、T3は、所定の第2時間を超えなければならない。上述の動作が終了した後、人物がスライドの行為を行う。
本発明に係る操作制御方法とシステム、または特定の態様またはその部分は、例えば、フレキシブル磁気ディスク、CD−ROMS、ハードドライブ、または任意のその他の機械可読な記録媒体に記録された(有形メディア(tangible media)に統合された)プログラムコード(即ち、実行可能命令)の形式を取ることができる。プログラムコードがコンピュータなどの機械にロードされて実行された時、この機械は、本発明の方法を実行する装置となる。
また、本発明の方法は、電線、またはケーブルなどのいくつかの伝送媒体に伝送されるプログラムコードの形式で、光ファイバーによって、または任意のその他の伝送形式によって実施することもでき、プログラムコードがコンピュータなどの機械に受けられ、ロードされて実行された時、この機械は、本発明の方法を実行する装置となる。汎用プロセッサに実施される時、プログラムコードは、プロセッサと組み合わせられ、特定用途向けロジック回路と同じように操作する固有の装置を提供する。
以上、本発明の好適な実施例を例示したが、これは本発明を限定するものではなく、本発明の精神及び範囲を逸脱しない限りにおいては、当業者であれば行い得る少々の変更や修飾を付加することは可能である。従って、本発明が保護を請求する範囲は、特許請求の範囲を基準とする。
操作制御システムの実施例を表す概略図である。 表示ユニットの例を表す概略図である。 操作制御方法の実施例の流れ図である。 両手を広げる操作例を表す概略図である。 オブジェクトを捕まえる操作例を表す概略図である。 特定操作が人物のステップ/ドラム、または人物のスライドかどうかを決定する方法の実施例の流れ図である。 人物のステップの操作例を表す概略図である。 人物のスライドの操作例を表す概略図である。
符号の説明
100 操作制御システム
110 タッチ検出手段
120 処理モジュール
130 ホストプロセッサ
140 表示ユニット
200 人物
210、220 手の端
230、240 指
S310〜S360 ステップ
510 X軸のセンシング量の曲線
520 Y軸のセンシング量の曲線
S602〜S630 ステップ
P1、P2、P3、P4 位置

Claims (19)

  1. タッチ検出手段上の少なくとも2つのポインタにそれぞれ対応する接触を検出するステップ、
    前記タッチ検出手段上の前記各接触の動きを検出するステップ、および
    前記各接触の動きに基づいて操作命令を決定するステップを含む操作制御方法。
  2. 前記各ポインタに対応する前記接触の状態を示す量であるセンシング量がスレッショルド値を超えるかどうかを判断するステップ、および
    超えない場合、前記タッチ検出手段上の前記ポインタに対応する前記接触を無視するステップを更に含む請求項1に記載の方法。
  3. 前記少なくとも2つの各接触の位置の間の第1距離を計算し、前記接触が維持された状態で動いた場合、前記接触の位置の間の第2距離を再計算するステップ、および
    前記第2距離が前記第1距離を超えるかどうかを判断するステップを更に含む請求項1に記載の方法。
  4. 前記第2距離が前記第1距離を超えた場合、前記操作命令は、前記接触の位置またはそれらの距離に基づいて、ドアまたは手を開く操作を含む特定のオブジェクトを開けることであると決定するステップ、および
    前記第2距離が前記第1距離を超えない場合、前記操作命令は、前記接触の位置またはそれらの距離に基づいて、ドアまたは手を閉じる操作を含む特定のオブジェクトを閉じることであると決定するステップを更に含む請求項3に記載の方法。
  5. 前記ポインタに対応する前記接触が交互に現れるかどうかを判断し、現れた場合、前記操作命令は、特定オブジェクトに特定操作を行わせるものであると決定するステップ、および
    前記接触が動くかどうかを判断し、動かない場合、人物のステップ操作、及び、太鼓を叩くように物品を叩いたり床を踏み鳴らすドラムの操作を含む特定操作を決定し、動いた場合、人物のスライドの操作を含む特定操作を決定するステップを更に含む請求項1に記載の方法。
  6. 前記タッチ検出手段上の前記接触の前記動きの検出は、
    第1ポインタに対応する接触を検出するステップ、
    前記第1ポインタに対応する前記接触の終了を検出するステップ、
    第2ポインタに対応する接触を検出するステップ、および
    前記第2ポインタに対応する前記接触の終了を検出するステップを含み、 前記接触の1つが一度、前記タッチ検出手段上に現れた時に、
    前記第1ポインタに対応する前記接触が第1時間を超えるかどうかを判断するステップ、
    前記第2ポインタに対応する前記接触が第2時間を超えるかどうかを判断するステップ、および
    前記第1ポインタに対応する前記接触が第1時間を超え、前記第2ポインタに対応する前記接触が第2時間を超えた場合、前記操作命令を決定するステップを含む請求項5に記載の方法。
  7. 前記第1ポインタに対応する前記接触の終了から前記第2ポインタに対応する前記接触の存在までの間隔が第3時間を超えるかどうかを判断するステップ、および
    超える場合、前記操作命令を決定するステップを更に含む請求項6に記載の方法。
  8. 前記少なくとも2つのポインタは、第1ポインタ、第2ポインタと、第3ポインタを含み、
    前記方法は、
    前記第1ポインタと前記第2ポインタに対応する前記接触の位置、前記第2ポインタと前記第3ポインタに対応する前記接触の位置と、前記第1ポインタと前記第3ポインタに対応する前記接触の位置の間の元の距離を計算するステップ、
    前記接触が維持された状態で動く場合、前記第1ポインタと前記第2ポインタに対応する前記接触の位置、前記第2ポインタと前記第3ポインタに対応する前記接触の位置と、前記第1ポインタと前記第3ポインタに対応する前記接触の位置の間の新しい距離を再計算するステップ、
    前記第1ポインタと前記第2ポインタに対応する前記接触の位置、前記第2ポインタと前記第3ポインタに対応する前記接触の位置、または前記第1ポインタと前記第3ポインタに対応する前記接触の位置の間の新しい距離がその間の前記元の距離より小さいかどうかを判断するステップ、および
    小さい場合、特定オブジェクトを捕まえる前記操作命令を決定するステップを更に含む請求項1に記載の方法。
  9. 前記操作命令をホストプロセッサに出力するステップ、および
    表示ユニットに特定オブジェクトを表示し、前記ホストプロセッサが前記特定オブジェクトに前記操作命令に対応する動きを前記表示ユニット上において行わせることで前記操作命令を完成するステップを含み、
    前記タッチ検出手段は、前記表示ユニットに貼り付けられ、
    前記接触は、前記特定オブジェクトの所定の部位にそれぞれ対応させて検出する請求項1に記載の方法。
  10. タッチ検出手段、および
    前記タッチ検出手段上の少なくとも2つのポインタにそれぞれ対応する接触を検出し、前記タッチ検出手段上の前記接触の動きを検出し、前記動きに基づいて操作命令を決定する処理モジュールを含む操作制御システム。
  11. 前記処理モジュールは、前記各ポインタに対応する前記接触の状態を示す量であるセンシング量がスレッショルド値を超えるかどうかを更に判断し、超えない場合、前記タッチ検出手段上の前記ポインタに対応する前記接触を無視する請求項10に記載のシステム。
  12. 前記処理モジュールは、前記少なくとも2つの各接触の間の第1距離を更に計算し、前記接触が維持された状態で動いた場合、前記接触の位置の間の第2距離を再計算し、前記第2距離が前記第1距離を超えるかどうかを判断する請求項10に記載のシステム。
  13. 前記処理モジュールは、前記第2距離が前記第1距離を超えた場合、前記操作命令は、前記接触の位置またはそれらの距離に基づいて、ドアまたは手を開く操作を含む特定のオブジェクトを開けることであると決定し、前記第2距離が前記第1距離を超えない場合、前記操作命令は、前記接触の位置またはそれらの距離に基づいて、ドアまたは手を閉じる操作を含む特定のオブジェクトを閉じることであると決定する請求項12に記載のシステム。
  14. 前記処理モジュールは、前記ポインタに対応する前記接触が交互に現れるかどうかを更に判断し、現れた場合、前記操作命令は、特定オブジェクトに特定操作を行わせるものであると決定し、前記接触が動くかどうかを判断し、動かない場合、人物のステップの操作、及び、太鼓を叩くように物品を叩いたり床を踏み鳴らすドラムの操作を含む特定操作を決定し、動いた場合、人物のスライドの操作を含む特定操作を決定する請求項10に記載のシステム。
  15. 前記処理モジュールは、第1ポインタに対応する接触を検出し、前記第1ポインタに対応する前記接触の終了を検出し、第2ポインタに対応する接触を検出し、前記第2ポインタに対応する前記接触の終了を検出することによって前記タッチ検出手段上の前記接触の前記動きを検出し、前記接触の1つが一度、前記タッチ検出手段上に現れた時に、前記第1ポインタに対応する前記接触が第1時間を超えるかどうかを判断し、前記第2ポインタに対応する前記接触が第2時間を超えるかどうかを判断し、前記第1ポインタに対応する前記接触が第1時間を超え前記第2ポインタに対応する前記接触が第2時間を超えた場合前記操作命令を決定する請求項14に記載のシステム。
  16. 前記処理モジュールは、前記第1ポインタに対応する前記接触の終了から前記第2ポインタに対応する前記接触の存在までの間隔が第3時間を超えるかどうかを更に判断し、超える場合、前記操作命令を決定する請求項15に記載のシステム。
  17. 前記少なくとも2つのポインタは、第1ポインタ、第2ポインタと、第3ポインタを含み、前記処理モジュールは、前記第1ポインタと前記第2ポインタに対応する前記接触の位置、前記第2ポインタと前記第3ポインタに対応する前記接触の位置と、前記第1ポインタと前記第3ポインタに対応する前記接触の位置の間の元の距離を更に計算し、前記接触が維持された状態で動く場合、前記第1ポインタと前記第2ポインタに対応する前記接触の位置、前記第2ポインタと前記第3ポインタに対応する前記接触の位置と、前記第1ポインタと前記第3ポインタに対応する前記接触の位置の間の新しい距離を再計算し、前記第1ポインタと前記第2ポインタに対応する前記接触の位置、前記第2ポインタと前記第3ポインタに対応する前記接触の位置、または前記第1ポインタと前記第3ポインタに対応する前記接触の位置の間の新しい距離がその間の前記元の距離より小さいかどうかを判断し、小さい場合、特定オブジェクトを捕まえる前記操作命令を決定する請求項10に記載のシステム。
  18. ホストプロセッサと表示ユニットを更に含み、前記処理ユニットは、前記操作命令を前記ホストプロセッサに更に出力し、前記ホストプロセッサは、前記表示ユニットに特定オブジェクトを表示し、前記特定オブジェクトに前記操作命令に対応する動きを前記表示ユニット上において行わせることで前記操作命令を完成し、前記タッチ検出手段は、前記表示ユニットに貼り付けられ、前記接触は、前記特定オブジェクトの所定の部位にそれぞれ対応させて検出する請求項10に記載のシステム。
  19. タッチ検出手段上の少なくとも2つのポインタにそれぞれ対応する接触を検出するステップ、
    前記タッチ検出手段上の前記各接触の動きを検出するステップ、および
    前記各接触の動きに基づいて操作命令を決定するステップ
    を含む操作制御方法を装置に実行させるコンピュータプログラムが、当該装置に読み取り可能に記録された記録媒体。
JP2007274220A 2006-12-21 2007-10-22 操作制御方法およびシステム Pending JP2008159032A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
TW095148146A TWI399670B (zh) 2006-12-21 2006-12-21 操作控制方法及系統及其機器可讀取媒體

Publications (1)

Publication Number Publication Date
JP2008159032A true JP2008159032A (ja) 2008-07-10

Family

ID=39541991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007274220A Pending JP2008159032A (ja) 2006-12-21 2007-10-22 操作制御方法およびシステム

Country Status (3)

Country Link
US (1) US20080150715A1 (ja)
JP (1) JP2008159032A (ja)
TW (1) TWI399670B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020446A (ja) * 2011-07-11 2013-01-31 Celsys:Kk マルチポインティングデバイスの制御方法及びプログラム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8502801B2 (en) * 2008-08-28 2013-08-06 Stmicroelectronics Asia Pacific Pte Ltd. Capacitive touch sensor system
US8963843B2 (en) 2008-08-28 2015-02-24 Stmicroelectronics Asia Pacific Pte. Ltd. Capacitive touch sensor system
KR20110066950A (ko) * 2008-09-24 2011-06-17 코닌클리케 필립스 일렉트로닉스 엔.브이. 다지점 터치 감응 디바이스를 위한 사용자 인터페이스
TWI484380B (zh) * 2009-07-31 2015-05-11 Mstar Semiconductor Inc 觸控點位移量判斷方法與判斷裝置
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
WO2011037558A1 (en) 2009-09-22 2011-03-31 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8766928B2 (en) 2009-09-25 2014-07-01 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
US8832585B2 (en) 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US8799826B2 (en) 2009-09-25 2014-08-05 Apple Inc. Device, method, and graphical user interface for moving a calendar entry in a calendar application
KR20120104248A (ko) * 2009-12-14 2012-09-20 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 오디오 장치 설정의 터치 입력 기반 조정
US8677268B2 (en) * 2010-01-26 2014-03-18 Apple Inc. Device, method, and graphical user interface for resizing objects
US8539385B2 (en) 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for precise positioning of objects
US8539386B2 (en) 2010-01-26 2013-09-17 Apple Inc. Device, method, and graphical user interface for selecting and moving objects
CA2800332A1 (en) * 2010-03-22 2011-09-29 Mattel, Inc. Electronic device and the input and output of data
US20120050198A1 (en) * 2010-03-22 2012-03-01 Bruce Cannon Electronic Device and the Input and Output of Data
US8972879B2 (en) 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
US9081494B2 (en) 2010-07-30 2015-07-14 Apple Inc. Device, method, and graphical user interface for copying formatting attributes
US9098182B2 (en) 2010-07-30 2015-08-04 Apple Inc. Device, method, and graphical user interface for copying user interface objects between content regions
TW201235925A (en) * 2011-02-18 2012-09-01 Medici Creativity Co Ltd Driver featuring interactive sensing with touch panel assembly and method of interactive sensing
CN102736770B (zh) * 2011-03-31 2016-03-09 比亚迪股份有限公司 多点手势识别方法及多点平移手势的识别装置
TWI472987B (zh) * 2011-04-15 2015-02-11 Pixart Imaging Inc 光學式觸控板及手持式電子裝置
CA2863069C (en) * 2012-02-02 2020-03-10 Smart Technologies Ulc Interactive input system and method of detecting objects

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08211992A (ja) * 1995-02-03 1996-08-20 Canon Inc 図形形成装置及びその方法
JP2000163031A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
EP1717682B1 (en) * 1998-01-26 2017-08-16 Apple Inc. Method and apparatus for integrating manual input
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7277087B2 (en) * 2003-12-31 2007-10-02 3M Innovative Properties Company Touch sensing with touch down and lift off sensitivity
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US7728821B2 (en) * 2004-08-06 2010-06-01 Touchtable, Inc. Touch detecting interactive display

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08211992A (ja) * 1995-02-03 1996-08-20 Canon Inc 図形形成装置及びその方法
JP2000163031A (ja) * 1998-11-25 2000-06-16 Seiko Epson Corp 携帯情報機器及び情報記憶媒体

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013020446A (ja) * 2011-07-11 2013-01-31 Celsys:Kk マルチポインティングデバイスの制御方法及びプログラム

Also Published As

Publication number Publication date
US20080150715A1 (en) 2008-06-26
TWI399670B (zh) 2013-06-21
TW200828088A (en) 2008-07-01

Similar Documents

Publication Publication Date Title
JP2008159032A (ja) 操作制御方法およびシステム
JP5730667B2 (ja) デュアルスクリーン上のユーザジェスチャのための方法及びデュアルスクリーンデバイス
TWI471756B (zh) 虛擬觸控方法
JP4800060B2 (ja) グラフィカルユーザインタフェースを操作する方法及びグラフィカルユーザインタフェース装置
CN102436343B (zh) 基于触摸输入来对齐用户界面元素
EP2715491B1 (en) Edge gesture
JP4734435B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
US9423953B2 (en) Emulating pressure sensitivity on multi-touch devices
TWI463355B (zh) 多點觸控介面之訊號處理裝置、訊號處理方法及使用者介面圖像選取方法
US20100103136A1 (en) Image display device, image display method, and program product
JP2010086519A5 (ja)
US20100302155A1 (en) Virtual input devices created by touch input
JP5664147B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9773329B2 (en) Interaction with a graph for device control
US20150169122A1 (en) Method for operating a multi-touch-capable display and device having a multi-touch-capable display
TWI354223B (ja)
US20140298275A1 (en) Method for recognizing input gestures
TWI497357B (zh) 多點觸控板控制方法
JP5414134B1 (ja) タッチ式入力システムおよび入力制御方法
JP5477108B2 (ja) 情報処理装置及びその制御方法並びにプログラム
US20100245266A1 (en) Handwriting processing apparatus, computer program product, and method
JP5575027B2 (ja) 表示一体型座標入力装置及び仮想キーボード機能の起動方法
TWI403932B (zh) 操作觸控螢幕之方法、於觸控螢幕定義觸控手勢之方法及其電子裝置
TWI522895B (zh) 介面操作方法與應用該方法之可攜式電子裝置
TW201528114A (zh) 電子裝置及其觸控系統、觸控方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100720

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101214