JP2013041350A - タッチテーブルシステム - Google Patents

タッチテーブルシステム Download PDF

Info

Publication number
JP2013041350A
JP2013041350A JP2011176536A JP2011176536A JP2013041350A JP 2013041350 A JP2013041350 A JP 2013041350A JP 2011176536 A JP2011176536 A JP 2011176536A JP 2011176536 A JP2011176536 A JP 2011176536A JP 2013041350 A JP2013041350 A JP 2013041350A
Authority
JP
Japan
Prior art keywords
touch
area
touch position
screen
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011176536A
Other languages
English (en)
Inventor
Takashi Kitada
貴司 北田
Tadashi Maki
直史 牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011176536A priority Critical patent/JP2013041350A/ja
Priority to US13/566,151 priority patent/US20130038548A1/en
Publication of JP2013041350A publication Critical patent/JP2013041350A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0446Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a grid-like structure of electrodes in at least two directions, e.g. using row and column electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】複数のユーザが利用する場合の利便性を高めることができるようにする。
【解決手段】タッチパネル本体を天板に配置したタッチテーブル装置1と、タッチテーブル装置と接続されるPC2とを有するタッチテーブルシステムにおいて、タッチテーブル装置は、タッチ検出領域内でのタッチ位置を検出するタッチ位置検出部41と、タッチ検出領域内に設定されるユーザごとの操作領域において取得したタッチ位置の座標をPCの画面領域の座標に変換するタッチ位置変換部42と、を備え、PCは、タッチ位置検出部で取得したタッチ位置に基づいて、タッチ検出領域内にユーザごとの操作領域を個別に設定する操作領域設定部46と、タッチ位置変換部により変換された画面領域の座標に従って、ユーザごとの操作領域において操作された処理を同一の画面領域に反映する画面操作処理部47と、を備えたものとする。
【選択図】図10

Description

本発明は、天板にタッチパネルを配置したタッチテーブル装置を備えたタッチテーブルシステムに関するものである。
PCの画面を大画面のディスプレイに表示させて会議を行う場合、出席者はマウスやタブレットなどの位置入力デバイスを用いてPCの画面を操作することになるが、1つの位置入力デバイスを複数の出席者で共用するようにすると、出席者が手軽にPCの画面操作を行うことができない。また、全ての出席者に専用の位置入力デバイスを用意すれば、全ての出席者が手軽にPCの画面操作を行うことができるようになるが、位置入力デバイスを多数用意することは面倒である。
そこで、全ての出席者に専用の位置入力デバイスを用意しなくても、全ての出席者が手軽にPCを操作することができるようなシステムが望まれ、このような要望に関連する技術として、天板にタッチパネルを配置したタッチテーブル装置が知られている(特許文献1参照)。このようなタッチテーブル装置では、タッチテーブル装置の周囲のユーザが手軽にPCの画面操作を行うことができるようになる。
特開2007−108678号公報
しかしながら、前記従来の技術のようなタッチテーブル装置を会議に用いる場合、タッチテーブル装置を、一般的な会議用テーブルと同程度の大きさとする必要があるが、タッチテーブル装置がこのような大きさになると、自席に着座したままでは、天板上のタッチ面の所要の位置に手が届かなくなる場合があり、このような場合に画面操作を行いたいユーザは自席から立って移動しなければならなくなり、不便である。
本発明は、このような従来技術の問題点を解消するべく案出されたものであり、その主な目的は、複数のユーザが利用する場合の利便性を高めることができるように構成されたタッチテーブルシステムを提供することにある。
本発明のタッチテーブルシステムは、タッチ操作が行われるタッチ面を有するとともに内部に電極が格子状に配設されたタッチパネル本体を天板に配置したタッチテーブル装置と、前記タッチテーブル装置と接続される情報処理装置とを有するタッチテーブルシステムにおいて、前記タッチテーブル装置は、タッチ操作に応じた静電容量の変化に伴う前記電極の出力信号の変化に基づいて、前記タッチパネル本体におけるタッチ検出領域内でのタッチ位置を検出するタッチ位置検出部と、前記タッチ検出領域内に設定されるユーザごとの操作領域において取得したタッチ位置の座標を前記情報処理装置の画面領域の座標に変換するタッチ位置変換部と、を備え、前記情報処理装置は、前記タッチ位置検出部で取得したタッチ位置に基づいて、前記タッチ検出領域内にユーザごとの操作領域を個別に設定する操作領域設定部と、前記タッチ位置変換部により変換された画面領域の座標に従って、ユーザごとの操作領域において操作された処理を同一の前記画面領域に反映する画面操作処理部と、を備えた構成とする。
本発明によれば、ユーザごとに専用の位置入力デバイスが仮想的に割り当てられた状態となり、各ユーザは自分の手が届く範囲に操作領域を設定することで、各ユーザは自席から移動することなく、画面の全体を対象にした位置入力操作を行うことができるため、利便性を高めることができる。
本実施形態に係るタッチテーブルシステムを示す全体構成図 タッチテーブルシステムの利用状況の一例を示す斜視図 タッチテーブル装置1の天板に組み込まれたパネル本体5の断面図 ユーザA〜Dごとに操作領域22a〜22dを設定して画面操作を行う状況を示す図 ユーザA〜Dごとに操作領域22a〜22dを設定して画面操作を行う状況の別の例を示す図 2本の指を用いて位置入力操作を行う2本指操作モードを示す図 タッチテーブル装置1において操作領域22を指定する状況を示す図 領域指定具31を示す斜視図 領域指定具31を用いて領域を指定する状況を示す図 タッチテーブル装置1およびPC2の機能ブロック図 タッチテーブル装置1およびPC2での処理の手順を示すフロー図 図11のA部に示した操作領域指定時の処理の手順を示すフロー図 操作領域指定時にディスプレイ3に表示される画面を示す図 図11のB部に示した画面操作時の処理の手順を示すフロー図 画面操作時の座標変換の状況を示す図 タッチテーブルシステムの利用状況の別の例を示す斜視図 タッチテーブルシステムの利用状況の別の例を示す斜視図
前記課題を解決するためになされた第1の発明は、タッチ操作が行われるタッチ面を有するとともに内部に電極が格子状に配設されたタッチパネル本体を天板に配置したタッチテーブル装置と、前記タッチテーブル装置と接続される情報処理装置とを有するタッチテーブルシステムにおいて、前記タッチテーブル装置は、タッチ操作に応じた静電容量の変化に伴う前記電極の出力信号の変化に基づいて、前記タッチパネル本体におけるタッチ検出領域内でのタッチ位置を検出するタッチ位置検出部と、前記タッチ検出領域内に設定されるユーザごとの操作領域において取得したタッチ位置の座標を前記情報処理装置の画面領域の座標に変換するタッチ位置変換部と、を備え、前記情報処理装置は、前記タッチ位置検出部で取得したタッチ位置に基づいて、前記タッチ検出領域内にユーザごとの操作領域を個別に設定する操作領域設定部と、前記タッチ位置変換部により変換された画面領域の座標に従って、ユーザごとの操作領域において操作された処理を同一の前記画面領域に反映する画面操作処理部と、を備えた構成とする。
これによると、ユーザごとに専用の位置入力デバイスが仮想的に割り当てられた状態となり、各ユーザは自分の手が届く範囲に操作領域を設定することで、各ユーザは自席から移動することなく、画面の全体を対象にした位置入力操作を行うことができるため、利便性を高めることができる。
また、第2の発明は、少なくとも一部が導電体で構成された領域指定具をさらに備え、前記操作領域設定部は、前記タッチ位置検出部の検出結果に基づいて、前記領域指定具を検知した場合には、その領域指定具の載置位置に基づいて前記操作領域を設定する構成とする。
これによると、領域指定具で操作領域の範囲を視認することができるため、操作領域を指定した後に操作領域の範囲がわからなくなることを防ぐことができるので、利便性が向上する。
また、第3の発明は、前記操作領域設定部は、ユーザの座標モード選択操作に応じて、タッチ位置の座標値を絶対座標で出力する絶対座標モードと、タッチ位置の座標値を相対座標で出力する相対座標モードとのいずれかを、前記操作領域ごとに設定し、前記タッチ位置変換部は、相対座標モードが設定された操作領域については、直前に指定したタッチ位置に対する相対的な位置を示す座標を出力する構成とする。
これによると、絶対座標モードと相対座標モードとをユーザの必要に応じて使い分けることができるため、利便性が向上する。
また、第4の発明は、前記タッチ位置検出部で取得したタッチ位置が前記操作領域のいずれに入るかを判定し、前記タッチ位置が前記操作領域のいずれにも入らない場合には、そのタッチ位置を無効とする操作領域判定部をさらに備えた構成とする。
これによると、操作領域の外側では位置入力操作ができなくなり、操作領域の外側にユーザが手をついたり物品を置いたりしても、タッチ位置と誤検出されることがなくなるため、使い勝手がよくなる。
以下、本発明の実施の形態を、図面を参照しながら説明する。
図1は、本実施形態に係るタッチテーブルシステムを示す全体構成図である。図2は、タッチテーブルシステムの利用状況の一例を示す斜視図である。図3は、タッチテーブル装置1の天板に組み込まれたパネル本体5の断面図である。
図1に示すように、本タッチテーブルシステムは、タッチテーブル装置1と、PC(情報処理装置)2と、ディスプレイ(表示装置)3と、で構成されている。
タッチテーブル装置1のタッチパネル本体5は、指示物(ユーザの指及びスタイラス等の導電体)によるタッチ操作が行われるタッチ面6を備え、互いに並走する複数の送信電極7と互いに並走する複数の受信電極8とが格子状に配置されている。このタッチパネル本体5は、図2に示すように、タッチテーブル装置1の天板12に配置されており、天板12の上面が、ユーザA〜Dがタッチ操作を行うタッチ面6となる。
図2に示す例では、タッチテーブル装置1の側方に配置された架台13にディスプレイ3およびPC2が搭載され、タッチテーブル装置1の周囲に着座したユーザA〜Dは、ディスプレイ3の画面を見ながらタッチテーブル装置1上でタッチ操作を行うことで、PC2の画面操作を行うことができる。なお、ディスプレイが一体化された省スペース型のPCであれば、タッチテーブル装置1の天板12上に載置するようにしてもよい。
図3に示すように、タッチパネル本体5は、送信電極7及び受信電極8を有する電極シート15と、電極シート15の前面側に配置される表面側の保護部材16と、電極シート15の背面側に配置される裏面側の保護部材17と、を備えている。電極シート15では、送信電極7及び受信電極8が両者を絶縁する支持シート18の表裏各面にそれぞれ配設されている。表面側の保護部材16は、指等の指示物によるタッチ操作が行われるタッチ面6を備え、指示物によるタッチ操作の検出感度を高めるために誘電率の高い合成樹脂材料、例えばメラミン樹脂にて形成される。
また、図1に示したように、タッチテーブル装置1は、送信電極7に対して駆動信号を印加する送信部9と、送信電極7に印加された駆動信号に応答した受信電極8の応答信号を受信して、送信電極7と受信電極8とが交差する電極交点ごとのレベル信号を出力する受信部10と、この受信部10から出力されるレベル信号に基づいてタッチ位置を検出すると共に送信部9及び受信部10の動作を制御する制御部11とを備えている。
送信電極7と受信電極8とは、絶縁層を挟んで重なり合う態様で交差しており、この送信電極7と受信電極8とが交差する電極交点にはコンデンサが形成され、ユーザが指等の指示物でタッチ操作を行う際に、指示物がタッチ面6に接近あるいは接触すると、これに応じて電極交点の静電容量が実質的に減少することで、タッチ操作の有無を検出することができる。
ここでは、相互容量方式が採用されており、送信電極7に駆動信号を印加すると、これに応答して受信電極8に充放電電流が流れ、この充放電電流が応答信号として受信電極8から出力され、このとき、ユーザのタッチ操作に応じて電極交点の静電容量が変化すると、受信電極8の応答信号が変化し、この変化量に基づいてタッチ位置が算出される。この相互容量方式では、受信部10で応答信号を信号処理して得られるレベル信号が、送信電極7と受信電極8とによる電極交点ごとに出力されるため、同時に複数のタッチ位置を検出する、いわゆるマルチタッチ(多点検出)が可能である。
送信部9では、送信電極7を1本ずつ選択して駆動信号を印加し、受信部10では、受信電極8を1本ずつ選択して、受信電極8の応答信号をアナログ処理した上でAD変換処理してレベル信号を出力する。送信部9および受信部10は、制御部11から出力される同期信号に応じて動作し、送信部9において1本の送信電極7に駆動信号を印加する間に、受信部10において受信電極8を1本ずつ選択して受信電極8からの応答信号を順次処理し、この1ライン分のスキャン動作を全ての送信電極7について順次繰り返すことで、全ての電極交点ごとのレベル信号を取得することができる。
制御部11は、受信部10から出力される電極交点ごとのレベル信号から所定の演算処理によってタッチ位置(タッチ領域の中心座標)を求める。このタッチ位置の演算では、X方向(受信電極8の配列方向)とY方向(送信電極7の配列方向)とでそれぞれ隣接する複数(例えば4×4)の電極交点ごとのレベル信号から所要の補間法(例えば重心法)を用いてタッチ位置を求める。これにより、送信電極7及び受信電極8の配置ピッチ(例えば10mm)より高い分解能(例えば1mm以下)でタッチ位置を検出することができる。
また、制御部11では、タッチ面6の全面に渡って電極交点ごとのレベル信号の受信が終了する1フレーム周期ごとにタッチ位置を求める処理が行われ、タッチ位置情報がフレーム単位でPC2に出力される。PC2では、時間的に連続する複数のフレームのタッチ位置情報に基づいて、各タッチ位置を時系列に連結する表示画面データを生成して、ディスプレイ3に出力する。なお、同時に複数の位置でタッチ操作が行われた場合には、複数のタッチ位置を含むタッチ位置情報がフレーム単位で出力される。
図4は、ユーザA〜Dごとに操作領域22a〜22dを設定して画面操作を行う状況を示す図であり、図4(A)にユーザA〜Dが画面操作を行うタッチテーブル装置1を、図4(B)にディスプレイ3に表示された画面を、それぞれ示す。
本実施形態では、タッチパネル本体5のタッチ検出領域21内にユーザA〜Dごとの操作領域22a〜22dを個別に設定することができるようになっている。これにより、ユーザA〜Dごとに専用の位置入力デバイスが仮想的に割り当てられた状態となり、各ユーザA〜Dは、自分の手が届く範囲に各自の操作領域22a〜22dを設定することで、自席から移動することなく、画面の全体を対象にした位置入力操作を行うことができるため、利便性を高めることができる。
操作領域22a〜22dでは、タッチ操作により、画面操作、すなわち画面上のポインタ(カーソル)を移動する操作や、画面上のボタンを選択する操作や、線を描画する操作などを行うことができるが、図4には一例として手書きモードで線を描画する場合を示しており、図4(A)に示すように、各ユーザA〜Dが各自の操作領域22a〜22d内で指を動かすと、図4(B)に示すように、各ユーザA〜Dの指の動きに対応した線がディスプレイ3の画面に一緒に表示される。
また本実施形態では、タッチ位置が操作領域22a〜22dのいずれにも入らない、すなわちタッチ位置が操作領域22a〜22dの外側となる場合にはそのタッチ位置を無効とする処理が行われる。これにより、操作領域22a〜22dの外側では位置入力操作ができなくなるが、操作領域22a〜22dの外側にユーザA〜Dが手をついたり物品を置いたりしても、タッチ位置と誤検出されることがなくなり、使い勝手がよくなる。
図5は、ユーザA〜Dごとに操作領域22a〜22dを設定して画面操作を行う状況の別の例を示す図であり、図5(A)にユーザA〜Dが画面操作を行うタッチテーブル装置1を、図5(B)にディスプレイ3に表示された画面を、それぞれ示す。
本実施形態では、ユーザA〜Dの座標モード選択操作に応じて、タッチ位置の座標を絶対座標で出力する絶対座標モードと、タッチ位置の座標を相対座標で出力する相対座標モードとの別を、操作領域ごとに設定することができるようになっている。図5に示す例では、ユーザA,B,Cの操作領域22a〜22cが絶対座標モードに設定され、ユーザDの操作領域22dが相対座標モードに設定されている。
絶対座標モードでは、タブレットと同様に、操作領域22a〜22cが画面領域の全体に対応し、操作領域22a〜22c上での絶対的な位置を示す座標値が出力される。相対座標モードでは、マウスと同様に、直前に指定した位置に対する相対的な位置を示す座標値が出力される。
このように絶対座標モードと相対座標モードとの別を操作領域ごとに設定することができるようにすると、絶対座標モードと相対座標モードとをユーザの必要に応じて使い分けることができるため、利便性が向上する。
なお、相対座標モードでは、原理的には操作領域を設定する必要は特にないが、操作可能な領域の境界がないと、タッチ面6にユーザが手をついたり物品を置いたりすることによる誤検出を防ぐことができず、不便であるため、相対座標モードでも操作領域を設定するようにするとよい。
図6は、2本の指を用いて位置入力操作を行う2本指操作モードを示す図である。本実施形態では、一方の指F1をタッチ面6に触れた状態で静止させた上で、他方の指F2を動かすことで位置を入力することができ、静止した一方の指F1に対する他方の指F2の相対位置に基づいて、タッチ位置の座標値が相対座標で出力される。
なお、図6の例では、片方の手の2本の指を用いるようにしているが、両手の指を1本ずつ用いることも可能である。
図7は、タッチテーブル装置1において操作領域22を指定する状況を示す図である。操作領域22を指定するには、矩形の操作領域22を画定する対角方向の2つ(ここでは左上および右下)の頂点をタッチ操作で指定する。これにより、2つの頂点を通り且つ4つの辺がタッチ検出領域21の各辺と平行となるように矩形の操作領域22が設定される。
このように操作領域は、ユーザによるタッチ操作により指定されるが、以下に説明する領域指定具を用いて操作領域を指定することもできる。図8は、領域指定具31を示す斜視図である。図9は、領域指定具31を用いて領域を指定する状況を示す図であり、図9(A)に領域指定具31をタッチテーブル装置1に載置した状況を、図9(B)にタッチ検出領域内に現れるタッチ領域を、それぞれ示す。
図8に示すように、領域指定具31は、内部に操作領域を画定する矩形をなし、テレスコピック機構により各辺の寸法を伸縮自在に構成され、大きさを変更することができるようになっている。具体的には、角部に位置するL字形状をなす大径の角部材32と、これに出し入れ可能に嵌入した中径の辺部材33,34と、これに出し入れ可能に嵌入した小径の筒状をなす辺部材35,36と、を備えている。この領域指定具31においては、4つの角部材32のうちの少なくとも対角方向に位置する2つが導電体で形成されている。
図9(A)に示すように、領域指定具31をタッチテーブル装置1のタッチ面6上に載置すると、図9(B)に示すように、導電体で形成された角部材32の位置でL字形状のタッチ領域37が検出され、これにより領域指定具31が載置されたことを検知することができる。そして、L字形状のタッチ領域37の角点38を、矩形の操作領域22を画定する対角方向の2つの頂点に設定することで、操作領域22が決定される。
ユーザは、図9(A)に示したように、領域指定具31の内側でタッチ面6に対するタッチ操作を行うことができ、領域指定具31で操作領域22が仕切られることで、操作領域22の範囲をユーザが視認することができるため、図7に示した場合のようにタッチ操作で操作領域22を指定した後に操作領域の範囲がわからなくなる不都合を避けることができるので、利便性が向上する。
以下に、タッチテーブル装置1およびPC2における操作領域に関する構成を説明するとともに、タッチテーブル装置1およびPC2の動作の手順を説明する。
図10は、タッチテーブル装置1およびPC2の機能ブロック図である。タッチテーブル装置1の制御部11は、タッチ位置検出部41と、タッチ位置変換部42と、送受信部48と、を備えている。タッチ位置検出部41は、受信部10から出力されるレベル信号に基づいて、タッチパネル本体5におけるタッチ検出領域21内でのタッチ位置を検出するものであり、ユーザが同時にタッチ操作を行った場合には、複数のタッチ位置が同時に検出される。このタッチ位置検出部41では、タッチテーブルの座標系によるタッチ位置の座標値が出力される。操作領域指定時にタッチ位置検出部41で取得したタッチ位置は、そのままに送受信部48からPC2に送信される。
タッチ位置変換部42は、タッチ位置検出部41で取得したタッチ位置を、操作領域ごとのタッチ位置に変換して出力する、特にタッチテーブル装置1のタッチ検出領域内に設定されるユーザごとの操作領域において取得したタッチ位置の座標をPC2の画面領域の座標に変換するものであり、操作領域記憶部43と、操作領域判定部44と、座標変換部45と、を備えている。
操作領域記憶部43は、PC2から送信されて送受信部48で受信した、タッチ検出領域21内に設定された操作領域の位置に関する情報(座標値)を記憶する。操作領域判定部44は、操作領域記憶部43に記憶された操作領域の情報に基づいて、タッチ位置検出部41で取得したタッチ位置が操作領域のいずれに入るかを判定するとともに、タッチ位置が操作領域のいずれにも入らない、すなわちタッチ位置が操作領域の外側となる場合にはそのタッチ位置を無効とする処理を行う。座標変換部45は、操作領域記憶部43に記憶された操作領域の情報に基づいて、タッチ位置検出部41で取得したタッチ位置の座標値を、タッチテーブルの座標系からPC2の出力画面(例えばディスプレイ3)の座標系に変換する。この座標変換部45で変換されたタッチ位置の座標値は、操作領域判定部44で取得した操作領域のID(識別情報)とともに、送受信部48からPC2に送信される。
また、タッチ位置変換部42では、図6に示したように、2本の指F1,F2が同時にタッチされたことを検知すると、静止した一方の指F1に対する他方の指F2の相対位置に基づいて、タッチ位置の座標値を相対座標で出力する2本指操作モードに移行する。
PC2は、操作領域設定部46と、画面操作処理部47と、送受信部49と、を備えている。操作領域設定部46は、操作領域指定時にタッチテーブル装置1のタッチ位置検出部41で取得して送受信部49で受信したタッチ位置に基づいて、タッチ検出領域内にユーザごとの操作領域を個別に設定するものであり、ここで取得した操作領域の位置に関する情報が送受信部49からタッチテーブル装置1に送信されてタッチテーブル装置1の操作領域記憶部43に記憶される。
画面操作処理部47は、画面操作時にタッチ位置変換部42で取得して送受信部49で受信した画面領域の座標に従って、ユーザごとの操作領域において操作された処理を同一の画面領域に反映するものであり、タッチテーブル装置1から受け取ったタッチ位置の座標値と操作領域のID(識別情報)とに基づいて、タッチ操作による画面操作、すなわち画面上のポインタ(カーソル)を移動する操作や、画面上のボタンを選択する操作や、線を描画する操作などに対応した処理が行われる。
図11は、タッチテーブル装置1およびPC2での処理の手順を示すフロー図である。まず、タッチテーブル装置1では、電源を投入すると初期化処理が行われる(ST210)。この初期化処理では、タッチ操作が行われていない非タッチ状態でのレベル信号を取得する処理が行われ、これによりタッチ位置検出部41においてタッチ操作に応じたレベル信号の変化量に基づいてタッチ位置を検出することができる。
また、PC2では、タッチテーブル装置1を用いて画面操作を行うアプリケーションを起動すると、ユーザに操作領域を指定させる操作領域設定処理が操作領域設定部46にて行われる(ST310)。このとき、タッチテーブル装置1は領域指定モードとなり、ユーザが、操作領域を指定するタッチ操作を行うと(ST110)、タッチテーブル装置1では、タッチ位置検出処理がタッチ位置検出部41にて行われて(ST220)、タッチ位置に関する情報がPC2に送られ、PC2では、タッチ位置に基づいて操作領域を設定する処理が行われる。
このようにして操作領域が設定されると、タッチテーブル装置1は画面操作モードとなって操作領域での位置入力操作が可能となり、ユーザが、画面操作のためのタッチ操作を行うと(ST120)、タッチテーブル装置1では、タッチ位置検出処理がタッチ位置検出部41にて行われて(ST230)、タッチ位置に関する情報がPC2に送られ、PC2では、タッチ位置に基づいた画面操作処理が画面操作処理部47にて行われる(ST320)。
次に、図11のA部に示した操作領域指定時の処理について詳しく説明する。図12は、図11のA部に示した操作領域指定時の処理の手順を示すフロー図である。図13は、操作領域指定時にディスプレイ3に表示される画面を示す図であり、図13(A),(B)に操作領域の指定をユーザに催促する画面を、図13(C)に座標モードの選択をユーザに催促する画面を、図13(D)に追加する操作領域の有無の選択をユーザに催促する画面をそれぞれ示す。
図12に示すように、まず、PC2において、操作領域を画定する一方(ここでは左上)の頂点を指定する操作をユーザに催促する操作領域指定画面(図13(A)参照)をディスプレイ3に表示させる処理が操作領域設定部46にて行われる(ST311)。これに応じて、ユーザが、タッチ面6の所要の位置をタッチする、あるいはタッチ面6の所要の位置に領域指定具31を載置すると(ST111)、タッチテーブル装置1では、タッチ位置検出処理がタッチ位置検出部41にて行われ(ST221)、検出されたタッチ位置がPC2に送られる。
PC2では、タッチテーブル装置1から受け取ったタッチ位置に基づいて領域指定具31を検出する処理が操作領域設定部46にて行われ(ST312)、領域指定具31が検出されなかった場合には(ST312でNo)、操作領域を画定するもう一方(ここでは右下)の頂点を指定する操作をユーザに催促する操作領域指定画面(図13(B)参照)をディスプレイ3に表示させる処理が操作領域設定部46にて行われる(ST313)。これに応じて、ユーザが、タッチ面6の所要の位置をタッチすると(ST112)、タッチテーブル装置1では、タッチ位置検出処理がタッチ位置検出部41にて行われ(ST222)、検出されたタッチ位置がPC2に送られる。PC2では、取得した2つ(左上および右下)の頂点の座標に基づいて操作領域を設定する処理が操作領域設定部46にて行われる(ST314)。
一方、領域指定具31が検出された場合には(ST312でYes)、操作領域を画定するもう一方の頂点を指定する操作は不要となるため、この操作をユーザに催促する操作領域指定画面の表示(ST313)は省略され、領域指定具31の載置位置に基づいて操作領域を設定する処理が操作領域設定部46にて行われる(ST314)。
次に、PC2では、絶対座標モードおよび相対座標モードのいずれかを選択する操作をユーザに催促する座標モード選択画面(図13(C)参照)をディスプレイ3に表示させる処理が操作領域設定部46にて行われる(ST315)。これに応じて、ユーザが、所要の座標モードが選択されるようにタッチ面6をタッチする(ST113)。ここでは、ユーザがディスプレイ3を見ながらその表示にあわせて領域の右半分をタッチしたら「相対座標」、左半分をタッチしたら「絶対座標」が選択される。このとき、タッチテーブル装置1では、タッチ位置検出処理がタッチ位置検出部41にて行われ(ST223)、検出されたタッチ位置がPC2に送られる。PC2では、取得したタッチ位置に基づいてユーザが選択した座標モードを判別して、座標モードを設定する処理が操作領域設定部46にて行われる(ST316)。
次に、PC2では、追加する操作領域の有無を選択する操作をユーザに催促する領域追加選択画面(図13(D)参照)をディスプレイ3に表示させる処理が操作領域設定部46にて行われる(ST317)。これに応じて、ユーザが、追加する操作領域の有無が選択されるようにタッチ面6をタッチする(ST114)。ここでは、ユーザがディスプレイ3を見ながらその表示にあわせて領域の右半分をタッチしたら「あり」、左半分をタッチしたら「なし」が選択される。このとき、タッチテーブル装置1では、タッチ位置検出処理がタッチ位置検出部41にて行われ(ST224)、検出されたタッチ位置がPC2に送られる。PC2では、取得したタッチ位置に基づいて追加する操作領域の有無を判別して(ST318)、追加する操作領域がある場合には(ST318でYes)、操作領域指定画面(ST311)に戻って、新たな操作領域をユーザに指定させる処理に進む。
このようにしてPC2の操作領域設定部46において、操作領域の位置および座標モードが設定されると、その操作領域の位置および座標モードに関する情報がタッチテーブル装置1に送られて操作領域記憶部43に記憶される。
次に、図11のB部に示した画面操作時の処理について説明する。図14は、図11のB部に示した画面操作時の処理の手順を示すフロー図である。図15は、画面操作時の座標変換の状況を示す図であり、図15(A)にタッチテーブルの座標系を、図15(B)に出力画面の座標系を、それぞれ示す。
図14に示すように、ユーザが画面操作のためのタッチ操作を行うと(ST121)、タッチテーブル装置1では、タッチ操作を検知して(ST231でYes)、タッチ位置検出処理がタッチ位置検出部41にて行われる(ST232)。このタッチ位置検出処理では、タッチテーブルの座標系でタッチ位置が求められる。
ついで、操作領域判定処理が操作領域判定部44にて行われる(ST233)。この操作領域判定処理では、操作領域記憶部43の操作領域情報に基づいて、タッチ位置検出処理(ST232)で取得したタッチ位置が操作領域のいずれかに入るかが判定され、タッチ位置が操作領域のいずれにも入らない場合には(ST233でNo)、そのタッチ位置を無効とする処理が行われる(ST234)。
一方、タッチ位置が操作領域のいずれかに入る場合には(ST233でYes)、座標変換処理が座標変換部45にて行われる(ST235)。この座標変換処理では、タッチ位置検出処理(ST232)で取得したタッチ位置の座標値が、図15(A)に示すタッチテーブルの座標系から、図15(B)に示す出力画面の座標系に変換される。
図15に示す例では、操作領域A,Bがともに絶対座標モードに設定されており、操作領域Aでは、タッチテーブルの座標系での座標値(Xa1,Ya1)〜(Xa4,Ya4)が、出力画面の座標系の座標値(0,0)〜(100,50)に変換される。操作領域Bでは、タッチテーブルの座標系での座標値(Xb1,Yb1)〜(Xb4,Yb4)が、PC2の画面の座標系の座標値(0,0)〜(100,50)に変換される。
また、操作領域Aと操作領域Bとは、タッチテーブル装置1を挟んで対面する2名のユーザによるものであり、ユーザに対する操作領域の位置関係が180度ずれている。また、ユーザの位置によっては90度ずれる場合もあり、一定していない。そこで、操作領域を設定する際に、ユーザの操作でユーザに対する操作領域の位置関係を入力させ、これに基づいて、ユーザから見た操作領域上での上下左右と画面領域での上下左右とが一致するように座標変換が行われる。なお、このユーザに対する操作領域の位置関係に応じた座標変換は、絶対座標モードの他に、相対座標モードや2本指操作モードでも必要である。
ついで、図14に示すように、タッチテーブル装置1からタッチ位置に関する情報がPC2に通知される(ST236)。ここでは、操作領域判定処理(ST233)で取得した操作領域のID(識別情報)と、座標変換処理(ST235)で取得した出力画面の座標系による座標値がPC2に送られる。PC2では、タッチテーブル装置1からのタッチ位置に関する情報を受け取ると(ST321でYes)、タッチ位置から画面操作の内容を判断してその画面操作の内容に対応する所定の処理が行われる(ST322)。
図16,図17は、タッチテーブルシステムの利用状況の別の例を示す斜視図である。
図16に示す例では、前記のデスクトップ型のPC2に代えて、ノート型PC(情報処理装置)61がタッチテーブル装置1の天板12上に載置されている。また、ノート型PC61の画面を拡大表示させるためにプロジェクタ(表示装置)62が用いられており、スクリーンや室内の壁面等を投影面63に利用して画面が投影される。
この場合、通常は、ノート型PC61の前にいるユーザDのみが画面操作を行うことができ、また、ノート型PC61を移動させることで、残りのユーザA〜Cも画面操作を行うことができるが、タッチテーブル装置1にユーザA〜Cごとに操作領域22a〜22cを設定すると、ノート型PC61を移動させなくても、ユーザA〜Cがノート型PC61の画面操作を行うことができる。
図17に示す例では、前記の例と同様に、プロジェクタ(表示装置)71が用いられるが、このプロジェクタ71は、短焦点型のものであり、タッチテーブル装置1の天板12上に載置され、この天板12の上面のタッチ面6を、プロジェクタ71の画面を投影する投影面に利用して、PC2の画面を表示させるようにしている。
この場合、タッチテーブル装置1のタッチ面6上の画面表示領域72を操作領域に設定することにより、画面表示領域72に表示された画面を直接操作する感覚で画面操作を行うことができる。特にここでは、ユーザA,Bの近くに画面を表示させているため、ユーザA,Bは、画面表示領域72に対するタッチ操作で画面操作ができるが、画面表示領域72の全体に手が届きにくいユーザC,Dは、各自の操作領域22c,22dを設定することで、自席から移動することなく画面操作を行うことができる。
なお、本実施形態では、単体で画面を表示する表示装置(ディスプレイ3およびプロジェクタ62,71)を用いたが、タッチテーブル装置が表示装置を一体的に備える、すなわち天板に配置されたタッチパネル本体の背面側に表示装置を配置して、タッチ面に画像を表示させるようにしてもよい。この場合、タッチ検出領域の一部に画面を表示させて、残りのスペースに操作領域を設定するようにしてもよい。
また、本実施形態では、タッチ位置変換部42をタッチテーブル装置1に設けたが、情報処理装置(PC2)に設けるようにしてもよい。また、本実施形態では、操作領域設定部46を情報処理装置(PC2)に設けたが、タッチテーブル装置1に設けるようにしてもよい。
また、本実施形態では、タッチ面上に載置した際に内側でタッチ面に対するタッチ操作が可能なように枠状に形成された領域指定具を用いたが、本発明における領域指定具は、このような構成に限定されるものではなく、矩形の操作領域を画定する2つの頂点をそれぞれ指定するチップ状の部材やL字形状の部材としてもよい。
また、本実施形態では、タッチ位置の検出原理に、静電容量方式のうちの相互容量方式を採用した例を示したが、自己容量方式を採用することも可能である。ただし、自己容量方式では、同時に複数のタッチ位置を検出するマルチタッチに対応していないため、使い勝手が悪くなり、相互容量方式を採用することが望ましい。
本発明にかかるタッチテーブルシステムは、複数のユーザが利用する場合の利便性を高めることができる効果を有し、天板にタッチパネルを配置したタッチテーブル装置を備えたタッチテーブルシステムなどとして有用である。
1 タッチテーブル装置
2 PC(情報処理装置)
3 ディスプレイ(表示装置)
5 タッチパネル本体
6 タッチ面
7 送信電極
8 受信電極
12 天板
21 タッチ検出領域
22,22a〜22d 操作領域
31 領域指定具
41 タッチ位置検出部
42 タッチ位置変換部
43 操作領域記憶部
44 操作領域判定部
45 座標変換部
46 操作領域設定部
47 画面操作処理部
48 送受信部
49 送受信部
61 ノート型PC(情報処理装置)
62,71 プロジェクタ(表示装置)

Claims (4)

  1. タッチ操作が行われるタッチ面を有するとともに内部に電極が格子状に配設されたタッチパネル本体を天板に配置したタッチテーブル装置と、前記タッチテーブル装置と接続される情報処理装置とを有するタッチテーブルシステムにおいて、
    前記タッチテーブル装置は、
    タッチ操作に応じた静電容量の変化に伴う前記電極の出力信号の変化に基づいて、前記タッチパネル本体におけるタッチ検出領域内でのタッチ位置を検出するタッチ位置検出部と、
    前記タッチ検出領域内に設定されるユーザごとの操作領域において取得したタッチ位置の座標を前記情報処理装置の画面領域の座標に変換するタッチ位置変換部と、
    を備え、
    前記情報処理装置は、
    前記タッチ位置検出部で取得したタッチ位置に基づいて、前記タッチ検出領域内にユーザごとの操作領域を個別に設定する操作領域設定部と、
    前記タッチ位置変換部により変換された画面領域の座標に従って、ユーザごとの操作領域において操作された処理を同一の前記画面領域に反映する画面操作処理部と、
    を備えたことを特徴とするタッチテーブルシステム。
  2. 少なくとも一部が導電体で構成された領域指定具をさらに備え、
    前記操作領域設定部は、前記タッチ位置検出部の検出結果に基づいて、前記領域指定具を検知した場合には、その領域指定具の載置位置に基づいて前記操作領域を設定することを特徴とする請求項1に記載のタッチテーブルシステム。
  3. 前記操作領域設定部は、ユーザの座標モード選択操作に応じて、タッチ位置の座標値を絶対座標で出力する絶対座標モードと、タッチ位置の座標値を相対座標で出力する相対座標モードとのいずれかを、前記操作領域ごとに設定し、
    前記タッチ位置変換部は、相対座標モードが設定された操作領域については、直前に指定したタッチ位置に対する相対的な位置を示す座標を出力することを特徴とする請求項1または請求項2に記載のタッチテーブルシステム。
  4. 前記タッチ位置検出部で取得したタッチ位置が前記操作領域のいずれに入るかを判定し、前記タッチ位置が前記操作領域のいずれにも入らない場合には、そのタッチ位置を無効とする操作領域判定部をさらに備えたことを特徴とする請求項1から請求項3のいずれかに記載のタッチテーブルシステム。
JP2011176536A 2011-08-12 2011-08-12 タッチテーブルシステム Withdrawn JP2013041350A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011176536A JP2013041350A (ja) 2011-08-12 2011-08-12 タッチテーブルシステム
US13/566,151 US20130038548A1 (en) 2011-08-12 2012-08-03 Touch system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011176536A JP2013041350A (ja) 2011-08-12 2011-08-12 タッチテーブルシステム

Publications (1)

Publication Number Publication Date
JP2013041350A true JP2013041350A (ja) 2013-02-28

Family

ID=47677229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011176536A Withdrawn JP2013041350A (ja) 2011-08-12 2011-08-12 タッチテーブルシステム

Country Status (2)

Country Link
US (1) US20130038548A1 (ja)
JP (1) JP2013041350A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088090A (ja) * 2013-11-01 2015-05-07 シャープ株式会社 操作表示装置、操作表示方法及びプログラム
JP2016186734A (ja) * 2015-03-27 2016-10-27 富士通株式会社 ウィンドウ設定方法、プログラム及び表示制御装置
WO2019003304A1 (ja) * 2017-06-27 2019-01-03 マクセル株式会社 投射型映像表示システム
JP2019117649A (ja) * 2019-03-08 2019-07-18 シャープ株式会社 画像表示装置および画像表示方法
JP2019144800A (ja) * 2018-02-20 2019-08-29 富士通株式会社 入力情報管理プログラム、入力情報管理方法、および情報処理装置
JP2020123153A (ja) * 2019-01-30 2020-08-13 シャープ株式会社 操作範囲設定装置、ゲーム装置、操作範囲設定方法、及びプログラム
CN112984295A (zh) * 2021-02-03 2021-06-18 衡阳师范学院 一种人力资源统筹用数据处理及接收终端
JP2021182303A (ja) * 2020-05-20 2021-11-25 富士通株式会社 操作領域の規定方法、操作領域の規定プログラム、情報処理装置、空間表示システム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9235312B2 (en) * 2010-10-25 2016-01-12 Dedo Interactive, Inc. Synchronized panel technology
KR20140034612A (ko) * 2012-09-12 2014-03-20 삼성전자주식회사 멀티 유저를 위한 디스플레이 장치 및 그 제어 방법
US9128548B2 (en) 2012-10-17 2015-09-08 Perceptive Pixel, Inc. Selective reporting of touch data
US8954638B2 (en) * 2012-10-17 2015-02-10 Perceptive Pixel, Inc. Selective reporting of touch data
US20140160054A1 (en) * 2012-12-06 2014-06-12 Qualcomm Incorporated Anchor-drag touch symbol recognition
US9506966B2 (en) * 2013-03-14 2016-11-29 Google Technology Holdings LLC Off-center sensor target region
US9720559B2 (en) 2013-10-14 2017-08-01 Microsoft Technology Licensing, Llc Command authentication
CN105988609B (zh) * 2015-01-28 2019-06-04 中强光电股份有限公司 触控式投影幕及其制造方法
TWI553536B (zh) 2015-03-13 2016-10-11 中強光電股份有限公司 觸控式投影幕及觸控式投影系統
WO2017054847A1 (en) * 2015-09-29 2017-04-06 Telefonaktiebolaget Lm Ericsson (Publ) Touchscreen device and method thereof
KR102500666B1 (ko) 2017-11-21 2023-02-16 삼성전자 주식회사 입력 인터페이스를 구성하는 방법 및 이를 사용하는 전자 장치
US11347367B2 (en) * 2019-01-18 2022-05-31 Dell Products L.P. Information handling system see do user interface management
US11009907B2 (en) 2019-01-18 2021-05-18 Dell Products L.P. Portable information handling system user interface selection based on keyboard configuration
US12086404B2 (en) * 2020-01-24 2024-09-10 Huawei Technologies Co., Ltd. Volume adjusting gesture and mistouch prevention on rolling devices

Family Cites Families (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5561811A (en) * 1992-11-10 1996-10-01 Xerox Corporation Method and apparatus for per-user customization of applications shared by a plurality of users on a single display
US6029214A (en) * 1995-11-03 2000-02-22 Apple Computer, Inc. Input tablet system with user programmable absolute coordinate mode and relative coordinate mode segments
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US6392675B1 (en) * 1999-02-24 2002-05-21 International Business Machines Corporation Variable speed cursor movement
US7327376B2 (en) * 2000-08-29 2008-02-05 Mitsubishi Electric Research Laboratories, Inc. Multi-user collaborative graphical user interfaces
US6886263B2 (en) * 2001-06-19 2005-05-03 Hsien-Chung Chou Auxiliary drafting instrument combination applicable to digital board
US7430721B2 (en) * 2003-04-08 2008-09-30 Tidebreak, Inc. Pointright: a system to redirect mouse and keyboard control among multiple machines
US20050183035A1 (en) * 2003-11-20 2005-08-18 Ringel Meredith J. Conflict resolution for graphic multi-user interface
JP4095040B2 (ja) * 2004-02-12 2008-06-04 株式会社日立製作所 テーブル型情報端末の表示方法
US7397464B1 (en) * 2004-04-30 2008-07-08 Microsoft Corporation Associating application states with a physical object
US7467380B2 (en) * 2004-05-05 2008-12-16 Microsoft Corporation Invoking applications with virtual objects on an interactive display
US20050259845A1 (en) * 2004-05-24 2005-11-24 Microsoft Corporation Restricting the display of information with a physical object
US7535481B2 (en) * 2004-06-28 2009-05-19 Microsoft Corporation Orienting information presented to users located at different sides of a display surface
US7379047B2 (en) * 2004-06-30 2008-05-27 Microsoft Corporation Using a physical object to control an attribute of an interactive display application
US7576725B2 (en) * 2004-10-19 2009-08-18 Microsoft Corporation Using clear-coded, see-through objects to manipulate virtual objects
US8702503B2 (en) * 2005-03-23 2014-04-22 Hewlett-Packard Development Company, L.P. Token configured to interact
US7639231B2 (en) * 2005-03-29 2009-12-29 Hewlett-Packard Development Company, L.P. Display of a user interface
US7970870B2 (en) * 2005-06-24 2011-06-28 Microsoft Corporation Extending digital artifacts through an interactive surface
US20070020604A1 (en) * 2005-07-19 2007-01-25 Pranaya Chulet A Rich Media System and Method For Learning And Entertainment
US20070124370A1 (en) * 2005-11-29 2007-05-31 Microsoft Corporation Interactive table based platform to facilitate collaborative activities
US8872879B2 (en) * 2006-01-26 2014-10-28 Polycom, Inc. System and method for controlling videoconference with touch screen interface
US8077153B2 (en) * 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US9063647B2 (en) * 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
US7712041B2 (en) * 2006-06-20 2010-05-04 Microsoft Corporation Multi-user multi-input desktop workspaces and applications
US20080022328A1 (en) * 2006-06-30 2008-01-24 Miller Robert R Method and system for providing interactive virtual tablecloth
WO2008043587A1 (en) * 2006-10-13 2008-04-17 Abb Research Ltd A device, system and computer implemented method to display and process technical data for a device in an industrial control system
US8063888B2 (en) * 2007-02-20 2011-11-22 Microsoft Corporation Identification of devices on touch-sensitive surface
TW200836563A (en) * 2007-02-27 2008-09-01 Awind Inc Pointing control system for multi-site presentation conference
US7980858B2 (en) * 2007-06-29 2011-07-19 Steelcase Development Corporation Learning environment
US8600816B2 (en) * 2007-09-19 2013-12-03 T1visions, Inc. Multimedia, multiuser system and associated methods
US20090106667A1 (en) * 2007-10-19 2009-04-23 International Business Machines Corporation Dividing a surface of a surface-based computing device into private, user-specific areas
US8433709B2 (en) * 2007-11-26 2013-04-30 Warren Daniel Child Modular system and method for managing chinese, japanese and korean linguistic data in electronic form
US20090177862A1 (en) * 2008-01-07 2009-07-09 Kuo-Shu Cheng Input device for executing an instruction code and method and interface for generating the instruction code
US7954188B2 (en) * 2008-02-07 2011-06-07 House Steven C Furniture attachment system and methods of use
JPWO2010018770A1 (ja) * 2008-08-11 2012-01-26 コニカミノルタホールディングス株式会社 画像表示装置
US20100083109A1 (en) * 2008-09-29 2010-04-01 Smart Technologies Ulc Method for handling interactions with multiple users of an interactive input system, and interactive input system executing the method
US8427424B2 (en) * 2008-09-30 2013-04-23 Microsoft Corporation Using physical objects in conjunction with an interactive surface
US20100205190A1 (en) * 2009-02-09 2010-08-12 Microsoft Corporation Surface-based collaborative search
KR101651859B1 (ko) * 2009-06-05 2016-09-12 삼성전자주식회사 사용자별 ui 제공방법 및 이를 적용한 디바이스
US8462134B2 (en) * 2009-06-29 2013-06-11 Autodesk, Inc. Multi-finger mouse emulation
WO2011023225A1 (en) * 2009-08-25 2011-03-03 Promethean Ltd Interactive surface with a plurality of input detection technologies
US20110187664A1 (en) * 2010-02-02 2011-08-04 Mark Rinehart Table computer systems and methods
US8522308B2 (en) * 2010-02-11 2013-08-27 Verizon Patent And Licensing Inc. Systems and methods for providing a spatial-input-based multi-user shared display experience
US11068149B2 (en) * 2010-06-09 2021-07-20 Microsoft Technology Licensing, Llc Indirect user interaction with desktop using touch-sensitive control surface
US9285983B2 (en) * 2010-06-14 2016-03-15 Amx Llc Gesture recognition using neural networks
US8686958B2 (en) * 2011-01-04 2014-04-01 Lenovo (Singapore) Pte. Ltd. Apparatus and method for gesture input in a dynamically zoned environment
US8988366B2 (en) * 2011-01-05 2015-03-24 Autodesk, Inc Multi-touch integrated desktop environment
TWI463361B (zh) * 2011-07-13 2014-12-01 Compal Electronics Inc 觸控面板之局部控制方法與系統

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015088090A (ja) * 2013-11-01 2015-05-07 シャープ株式会社 操作表示装置、操作表示方法及びプログラム
JP2016186734A (ja) * 2015-03-27 2016-10-27 富士通株式会社 ウィンドウ設定方法、プログラム及び表示制御装置
WO2019003304A1 (ja) * 2017-06-27 2019-01-03 マクセル株式会社 投射型映像表示システム
JP2019144800A (ja) * 2018-02-20 2019-08-29 富士通株式会社 入力情報管理プログラム、入力情報管理方法、および情報処理装置
JP2020123153A (ja) * 2019-01-30 2020-08-13 シャープ株式会社 操作範囲設定装置、ゲーム装置、操作範囲設定方法、及びプログラム
JP7129352B2 (ja) 2019-01-30 2022-09-01 シャープ株式会社 操作範囲設定装置、ゲーム装置、操作範囲設定方法、及びプログラム
JP2019117649A (ja) * 2019-03-08 2019-07-18 シャープ株式会社 画像表示装置および画像表示方法
JP2021182303A (ja) * 2020-05-20 2021-11-25 富士通株式会社 操作領域の規定方法、操作領域の規定プログラム、情報処理装置、空間表示システム
CN112984295A (zh) * 2021-02-03 2021-06-18 衡阳师范学院 一种人力资源统筹用数据处理及接收终端

Also Published As

Publication number Publication date
US20130038548A1 (en) 2013-02-14

Similar Documents

Publication Publication Date Title
JP2013041350A (ja) タッチテーブルシステム
KR101453628B1 (ko) 사용자 인터페이스
JP5832784B2 (ja) タッチパネルシステムおよびそれを用いた電子機器
JP5172334B2 (ja) タッチスクリーン上の2本指入力の使用
KR101084448B1 (ko) 멀티 포인트 터치 감지 시스템
KR101084438B1 (ko) 멀티 포인트 터치 감지 시스템의 동작 방법
US9524097B2 (en) Touchscreen gestures for selecting a graphical object
JP6027328B2 (ja) ディスプレイ装置及びそのオブジェクト表示方法
JP4876982B2 (ja) 表示装置および携帯情報機器
WO2013018480A1 (ja) タッチ入力が可能な画面内に原画像を縮小表示するタッチパッドを有するユーザインタフェース装置、入力処理方法及びプログラム
US20130038549A1 (en) Input device for touch screen and touch screen system having the same
US9052783B2 (en) Information processing apparatus
KR101019254B1 (ko) 공간 투영 및 공간 터치 기능이 구비된 단말 장치 및 그 제어 방법
JP5008707B2 (ja) 入力表示ボード兼テーブル
JP2008210348A (ja) 画像表示装置
KR20100027042A (ko) 멀티 포인트 터치 감지 장치
JP6253284B2 (ja) 情報処理装置およびその制御方法、プログラム、記録媒体
JP2011034169A (ja) 情報入力装置および情報入力方法
WO2011026389A1 (zh) 触摸控制方法、处理装置及处理系统
US20120038586A1 (en) Display apparatus and method for moving object thereof
EP2339436A2 (en) Display apparatus and touch sensing method
JP5627314B2 (ja) 情報処理装置
JPWO2012153536A1 (ja) 座標入力装置及び座標入力方法
JP5820414B2 (ja) 情報処理装置及び情報処理方法
US20150309601A1 (en) Touch input system and input control method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141104