JP2010262557A - 情報処理装置および方法 - Google Patents

情報処理装置および方法 Download PDF

Info

Publication number
JP2010262557A
JP2010262557A JP2009114196A JP2009114196A JP2010262557A JP 2010262557 A JP2010262557 A JP 2010262557A JP 2009114196 A JP2009114196 A JP 2009114196A JP 2009114196 A JP2009114196 A JP 2009114196A JP 2010262557 A JP2010262557 A JP 2010262557A
Authority
JP
Japan
Prior art keywords
contact
electrostatic touch
touch sensor
gesture operation
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009114196A
Other languages
English (en)
Inventor
Fumitada Honma
文規 本間
Tatsushi Nashida
辰志 梨子田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009114196A priority Critical patent/JP2010262557A/ja
Priority to CN2010101691189A priority patent/CN101887343B/zh
Priority to US12/772,746 priority patent/US20100287470A1/en
Publication of JP2010262557A publication Critical patent/JP2010262557A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

【課題】タッチパネルに依存することなくジェスチャ操作を実現できるようにする。
【解決手段】モバイル端末装置11の上側面、下側面、右側面、左側面には、それぞれ側面静電式タッチセンサ21−1乃至21−4が配置される。ユーザの指等が側面静電式タッチセンサ21接触した場合、その接触が、側面静電式タッチセンサ21の静電容量の変化という形態で検出される。側面静電式タッチセンサ21により検出された指の接触位置に基づいて、ジェスチャ操作が検出される。そして、そのジェスチャ操作に対応するインタラクション処理が実行される。例えば、タッチパネルを搭載した端末に適用することができる。
【選択図】図1

Description

本発明は、情報処理装置および方法に関し、特に、タッチパネルに依存することなくジェスチャ操作が実現できるようになった、情報処理装置および方法に関する。
近年、iPhone(Apple社の登録商標)に代表されるように、ユーザがタッチパネルに対してマルチタッチ方式でジェスチャ操作をすることができる情報処理装置が普及してきている。このような情報処理装置では、ユーザのジェスチャ操作に対応した所定の処理(以下、インタラクション処理と称する)が実行される(例えば、特許文献1参照)。
特開平5−100809号公報
しかしながら、マルチタッチ方式のジェスチャ操作を実現するためには、タッチパネルの画面の面積が一定以上であることが必要とされる。例えば、腕時計型の情報処理端末のように、形状が特殊で画面の面積が小さい情報処理装置においては、タッチパネル上でのマルチタッチ方式のジェスチャ操作の実現は困難である。換言すると、タッチパネル上でのジェスチャ操作を実現するためには、タッチパネルの画面の面積や、情報処理装置の形状に一定の制限がかけられる。
本発明は、このような状況に鑑みてなされたものであり、タッチパネルに依存することなくジェスチャ操作を実現できるようにするものである。
本発明の一側面の情報処理装置は、画像を表示する表示手段と、前記表示手段が配置される領域とは異なる領域に配置され、前記領域に対する接触を検出する検出手段と、前記検出手段により前記接触が検出された2以上の接触位置の組み合わせに基づいて操作内容を認識し、その操作内容に応じた処理の実行を制御する制御手段とを備える。
相異なる領域にそれぞれ配置された複数の前記検出手段を備える。
前記制御手段は、さらに、前記検出手段が配置された前記領域のうち、前記接触が検出された接触領域の面積を認識し、前記面積に基づいて、前記操作内容の認識の制御の実行許可と実行禁止とを切り替える。
前記制御手段は、前記面積が閾値以上である場合、前記検出手段により検出された接触は、ユーザによる前記情報処理装置の把持が目的であると推定して、前記操作内容の認識の制御の実行を禁止し、前記面積が閾値未満である場合、前記検出手段により検出された接触は、前記ユーザによる所定の操作が目的であると推定して、前記所定の操作について、その操作内容の認識の制御を許可する。
前記検出手段は、接触による静電容量の変化を出力する静電センサと、前記静電センサに結合される、可変形状の導電性物質とを有する。
本発明の一側面の情報処理方法は、上述した本発明の一側面の情報処理装置に対応する方法である。
本発明の一側面の情報処理装置および方法においては、画像が表示され、前記画像の表示が配置される領域とは異なる領域に対する接触が検出され、前記接触が検出された2以上の接触位置の組み合わせに基づいて操作内容が認識され、その操作内容に応じた処理の実行が制御される。
以上のごとく、本発明によれば、タッチパネルに依存することなくジェスチャ操作が実現できるようになる。
本発明が適用された情報処理装置の一実施形態としてのモバイル端末装置の外観の構成例を示す斜視図である。 静電式タッチパネル22に用いられるタッチパネル用静電式タッチセンサ22−Sの検出手法について説明する図である。 モバイル端末装置11の側面に対するジェスチャ操作と、そのジェスチャ操作に対応するインタラクショ処理の一例について説明する図である。 図1のモバイル端末装置11の内部構成例を示すブロック図である。 側面ジェスチャ操作対応インタラクション処理の一例を説明するフローチャートである。 ジェスチャ操作誤検出防止処理について説明する図である。 ジェスチャ操作誤検出防止処理について説明する図である。 モバイル端末装置11のインタラクション処理の具体例について説明する図である。 モバイル端末装置11のインタラクション処理の具体例について説明する図である。 本発明が適用される情報処理装置の一実施形態としてのモバイル端末装置の外観の構成例であって、図1の例とは異なる例を示す図である。 発明が適用された情報処理装置の一実施形態としてのモバイル端末装置の外観の構成例であって、図1や図10の例とは異なる例を示す図である。
以下、図面を参照して、本発明の実施の形態について説明する。
[本発明の情報処理装置の外観構成例]
図1は、本発明が適用される情報処理装置の一実施形態としてのモバイル端末装置の外観構成例を示す斜視図である。
モバイル端末装置11の所定の面には、静電式タッチパネル22が配置されている。静電式タッチパネル22は、後述する図4の表示部22−Dに対して、後述する図4のタッチパネル用静電式タッチセンサ22−Sが積層されて構成される。静電式タッチパネル22においては、表示部22−Dの画面に対してユーザの指等が接触した場合、その接触が、タッチパネル用静電式タッチセンサ22−Sの静電容量の変化という形態で検出される。そして、後述する図4のCPU23において、タッチパネル用静電式タッチセンサ22−Sにより検出された指の接触位置の座標の遷移(時間推移)等が認識され、その認識結果に基づいて、ジェスチャ操作が検出される。なお、ジェスチャ操作の具体例や、その検出手法については、図2以降を参照して後述する。
なお、以下、モバイル端末装置11を構成する面のうち、表示部22−Dが配置される面を表面と称し、表面の法線と直交する法線を有する面を側面と称する。図1の例では、側面としては4つの面が存在する。そこで、以下、静電式タッチパネル22(表示部22−D)の画面表示のデフォルトの方向を基準にして、表面に対して、上方向、下方向、右方向、および左方向のそれぞれに配置される側面を、上側面、下側面、右側面、および左側面のそれぞれと称する。
モバイル端末装置11には、上側面に配置される側面静電式タッチセンサ21−1、および、下側面に配置される側面静電式タッチセンサ21−2がそれぞれ設けられている。さらに、モバイル端末装置11には、右側面に配置される側面静電式タッチセンサ21−3、および、左側面に配置される側面静電式タッチセンサ21−4が、それぞれ設けられている。
なお、以下、側面静電式タッチセンサ21−1乃至21−4を個々に区別する必要がない場合、それらをまとめて、側面静電式タッチセンサ21と称する。
モバイル端末装置11の側面に対してユーザの指等が接触した場合、その接触が、側面静電式タッチセンサ21の静電容量の変化という形態で検出される。そして、後述する図4のCPU23において、側面静電式タッチセンサ21により検出された指の接触位置の座標の遷移(時間推移)等が認識され、その認識結果に基づいて、ジェスチャ操作が検出される。なお、ジェスチャ操作の具体例や、その検出手法については、図2以降を参照して後述する。
[静電式タッチセンサによる接触検出]
図2は、静電式タッチパネル22に用いられるタッチパネル用静電式タッチセンサ22−Sの検出手法について説明する図である。
タッチパネル用静電式タッチセンサ22−Sは、表示部22−Dに格子状(例えば10×7)に配置された静電センサの組み合わせから構成されている。静電センサは、静電容量の変化によってその値が常時変化する。よって、静電センサに指等が近接または接触した場合には、静電センサの静電容量が増加する。後述するCPU23は、静電センサの静電容量を常時監視し、その増加量の変化が一定の閾値を超えた場合に、静電式タッチパネル22に近接または接触している指等の接触があったと判定することができる。換言すると、CPU23は、接触があったと判定した静電センサの配置位置から、指等の接触位置の座標を検出することができる。即ち、CPU23は、タッチパネル用静電式タッチセンサ22−Sを構成する個々の静電センサの静電容量を同時に全て監視することが可能である。CPU23は、全ての静電センサの静電容量の変化を同時に監視し、補間することによって、静電式タッチパネル22に近接または接触している指等の位置や、指の形状等を検出することが可能である。
例えば図2の例では、静電式タッチパネル22のうち、黒色の表示領域は、指fが近接または接触していないため静電容量が変化していない領域を示しており、白色の表示領域は、指fが近接または接触しているため静電容量が増加している領域を示している。この場合、CPU23は、白色の領域の座標を指fの位置として認識することができるし、白色の領域の形状を指fの形状として検出することができる。
なお、本明細書では、接触とは、静的な接触(所定の一領域のみの接触)だけではなく、動的な接触(指f等の接触物体が所定の軌跡を描いて動く接触)も含む。例えば、静電式タッチパネル22上の指等のなぞりも、接触の一形態である。また、以下においては、接触とは、完全な接触のみならず、近接も含むとする。
さらに、CPU23は、指等の接触位置を時系列に検出していくことで、静電式タッチパネル22における指等の軌跡を認識することができる。CPU23は、そのような軌跡に対応するジェスチャ操作を検出し、そのジェスチャ操作に対応するインタラクション処理を実行することができる。
以上、静電式タッチパネル22に用いられるタッチパネル用静電式タッチセンサ22−Sの検出手法について説明した。このような検出手法は、側面静電式タッチセンサ21についても同様である。
即ち、CPU23は、側面静電式タッチセンサ21の静電容量の変化を監視することで、モバイル端末装置11の側面に対するジェスチャ操作を検出し、そのジェスチャ操作に対応するインタラクション処理を実行することができる。
[インタラクションの一例]
図3は、モバイル端末装置11の側面に対するジェスチャ操作と、そのジェスチャ操作に対応するインタラクション処理の一例について説明する図である。
例えば、静電式タッチパネル22の表示状態が、図3のAに示される表示状態、すなわち、静電式タッチパネル22に、デフォルトの表示方向で、1つのオブジェクト(犬)を含む静止画が表示されている状態であるとする。デフォルトの表示方向とは、上述したように、側面静電式タッチセンサ21−1が配置された上側面が上方向になるように画像が表示される方向をいう。また、この表示状態で、ユーザの指f1がモバイル端末装置11の上側面(側面静電式タッチセンサ21−1の配置面)の中央付近の位置、即ち、図3のA中丸印で示される位置に接触されているとする。また、ユーザの指f2がモバイル端末装置11の右側面(側面静電式タッチセンサ21−3の配置面)の上方付近の位置、即ち、図3のA中丸印で示される位置に接触されているとする。
ここで、ユーザが、指f2を、図3のAの状態から図3のBの状態に移動させるジェスチャ操作をさせたとする。即ち、ユーザが指f1はそのままの状態で、側面静電式タッチセンサ21−3に接触させている指f2のみを、図3のBの矢印で示される下方向になぞり操作したとする。
なぞり操作とは、ジェスチャ操作のひとつであって、ユーザが指を所定領域に接触させ、その後、指の接触を維持したまま、所定領域を起点として所定方向に所定距離だけ指を移動させる(ドラッグする)操作をいう。
このような右側面に対する下方向へのなぞり操作が行われると、図3のBに示されるように、インタラクション処理として、静電式タッチパネル22の表示方向をなぞり操作の方向に変化させる処理が実行される。即ち、デフォルトの表示方向(図3のAの状態の表示方向)に対して右方向に90度回転させる処理が実行される。
このように、ユーザは、モバイル端末装置11の側面に対するジェスチャ操作をすることで、モバイル端末装置11にインタラクション処理を実行させることができる。なお、ジェスチャ操作やインタラクション処理のその他の例については、図8や図9を参照して後述する。
次に、このような、インタラクション処理を実行するモバイル端末装置11の構成例について、図4を参照して説明する。
[モバイル端末装置の構成例]
図4は、図1のモバイル端末装置11の内部構成例を示すブロック図である。
モバイル端末装置11は、上述した側面静電式タッチセンサ21と静電式タッチパネル22に加えて、さらに、CPU(Central Processing Unit)23、不揮発性メモリ24、RAM(Random Access Memory)25、および、ドライブ26を含むように構成されている。
静電式タッチパネル22は、上述したように、タッチパネル用静電式タッチセンサ22−Sと表示部22−Dとから構成されている。
CPU23は、モバイル端末装置11全体を制御する。このため、CPU23には、側面静電式タッチセンサ21、静電式タッチパネル22、不揮発性メモリ24、RAM25およびドライブ26が接続されている。
例えば、CPU23は、モバイル端末装置11の側面に対するジェスチャ操作に応じて、インタラクション処理を実行する。即ち、インタラクション処理の開始時等に、CPU23は、側面静電式タッチセンサ21−1乃至21−4の各静電容量の変化をそれぞれ監視するスレッド(以下、静電容量監視スレッド)を生成する。そして、CPU23は、静電容量監視スレッドの監視結果から、ユーザの指が側面(側面静電式タッチセンサ21)に接触したか否かを判定する。CPU23は、接触したと判定した場合、所定のジェスチャ操作を検出し、対応するインタラクション処理を実行する。なお、以下、このようなCPU23による一連の処理を、側面ジェスチャ操作対応インタラクション処理と称する。側面ジェスチャ操作対応インタラクション処理の詳細については、図5以降の図面を参照して後述する。
不揮発性メモリ24は、各種情報を記憶する。例えば、電源状態がオフ状態に遷移したときにも保持すべき情報等が不揮発性メモリ24に記憶される。
RAM25は、CPU23が各種処理を実行する際のワークエリアとして必要なプログラムやデータを一時記憶する。
ドライブ26は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア27を駆動する。
[側面ジェスチャ操作対応インタラクション処理]
図5は、このような構成を有するモバイル端末装置11による側面ジェスチャ操作対応インタラクション処理の一例を説明するフローチャートである。
ステップS11において、CPU23は、側面静電式タッチセンサ21の静電容量を取得し、任意の分解能に補間する。即ち、側面ジェスチャ操作対応インタラクション処理の開始時点で、CPU23は、上述したように、静電容量監視スレッドを生成する。CPU23は、静電容量監視スレッドにより、側面静電式タッチセンサ21の静電容量を取得して、スレッド生成時の静電容量に対する差分を算出して、任意の分解能に補間する。
ステップS12において、CPU23は、接触面積が閾値(例えば、側面静電式タッチセンサ21の面積の30%)以上の側面静電式タッチセンサ21はあるか否かを判定する。
側面静電式タッチセンサ21−1乃至21−4のうち、接触面積が閾値以上の側面静電式タッチセンサ21が1つ以上ある場合、ステップS12においてYESであると判定され、処理はステップS13に進む。
ステップS13において、CPU23は、接触面積が閾値以上の側面静電式タッチセンサ21をジェスチャ操作対象から除外する。即ち、詳細については、図6と図7を参照して後述するが、接触面積が閾値以上の側面静電式タッチセンサ21には、それが配置されている側面を把持する目的で、ユーザの指や手の平等が接触されていると推定される。そこで、CPU23は、かかる側面静電式タッチセンサ21に対するジェスチャ操作の検出を禁止する。これにより、処理はステップS14に進む。
これに対して、指の接触面積が閾値以上の側面静電式タッチセンサ21が1つもない場合、ジェスチャ操作の検出を禁止すべき側面静電式タッチセンサ21は存在しないので、ステップS12においてNOであると判定される。そして、ステップS13の処理は実行されずに、処理はステップS14に進む。
ステップS14において、CPU23は、ジェスチャ操作が検出されたか否かを判定する。
ジェスチャ操作の検出が禁止されていない側面静電式タッチセンサ21の全てにおいて、ジェスチャ操作が検出されない場合、ステップS14においてNOであると判定され、処理はステップS11に戻さ、それ以降の処理が繰り返される。即ち、ジェスチャ操作が検出されるまでの間は、ステップS11乃至S14のループ処理が繰り返される。
その後、ジェスチャ操作の検出が禁止されてない側面静電式タッチセンサ21のうち少なくとも1つにおいて、ジェスチャ操作が検出された場合、ステップS14においてYESであると判定されて、処理はステップS15に進む。
ステップS15において、CPU23は、ジェスチャ操作に対応するインタラクション処理を実行する。
ステップS16において、CPU23は、処理の終了が指示されたか否かを判定する。
処理の終了が指示されていない場合、ステップS16においてNOであると判定されて、処理はステップS11に戻され、それ以降の処理が繰り返される。
これに対して、処理の終了が指示された場合、ステップS11においてYESであると判定されて、側面ジェスチャ操作対応インタラクション処理は終了する。
[ジェスチャ操作の誤検出の防止]
以下、側面ジェスチャ操作対応インタラクション処理のうち、ステップS12,S13の処理について、さらにその詳細を説明する。
本実施の形態のモバイル端末装置11の側面には、側面静電式タッチセンサ21が配置されている。したがって、ユーザは、ジェスチャ操作をするために、指や手の平等でモバイル端末装置11の側面を把持する場合、その側面に配置された側面静電式タッチセンサ21に、把持のための指や手の平等が接触することになる。このような場合も、CPU23は、その接触を検出することになるが、かかる接触を所定のジェスチャ操作であると誤検出してしまうと、誤ったインタラクション処理を実行してしまうことになる。
そこで、このような誤検出を回避するために、側面ジェスチャ操作対応インタラクション処理において、ステップS12,S13の処理が実行されるのである。なお、以下、ステップS12,S13の処理を、ジェスチャ操作誤検出防止処理と称する。
図6と図7は、ジェスチャ操作誤検出防止処理について説明する図である。
例えば、図6のAに示される側面静電式タッチセンサ21−3の領域T(灰色の楕円状の領域T)において、接触が検出されたとする。この領域Tにおいて、一定以上の連続する接触が検出された面積が、ステップS12,S13でいう接触面積に相当する。
従って、領域Tの接触面積が閾値以上である場合には、側面静電式タッチセンサ21−3に対する接触は、ジェスチャ操作のための接触ではなく、モバイル端末装置11を把持するための接触であると推定することができる。即ち、ユーザは、図6のBに示されるように、モバイル端末装置11を右手で把持するために、側面静電式タッチセンサ21−3が配置された右側面を右手の平等で接触させている状態であることが推定される。換言すると、ユーザは、右側面以外の側面に対して、ジェスチャ操作をする或いはその準備をしている状態であることが推定される。なお、接触面積の閾値は任意に設定可能であり、例えば、側面静電式タッチセンサ21の面積の30%と設定することができる。
そこで、このような場合、図5のステップS12の処理でYESであると判定されて、ステップS13の処理で、側面静電式タッチセンサ21−3は、従って、後段のステップS14の処理におけるジェスチャ操作の検出対象から除外されるのである。即ち、ユーザにとっては、側面静電式タッチセンサ21−3に対して、把持している以外の指等でジェスチャ操作をしても、そのジェスチャ操作は無効になる。
これに対して、例えば、図7のAに示される側面静電式タッチセンサ21−3の領域T1,T2,T3(灰色の円状の領域T1,T2,T3)において、接触がそれぞれ検出されたとする。これらの領域T1,T2,T3のそれぞれにおいて、一定以上の連続する接触が検出された面積が、ステップS12,S13でいう接触面積に相当する。
従って、領域T1,T2,T3の接触面積が全て閾値未満である場合には、側面静電式タッチセンサ21−3に対する接触は、モバイル端末装置11を把持するための接触ではないと推定することができる。即ち、側面静電式タッチセンサ21−3に対する接触は、ジェスチャ操作をするため或いはその準備のための接触であると推定することができる。即ち、ユーザは、図7のBに示されるように、モバイル端末装置11を左手で把持するために、左側面を左手の平等で接触させている状態であることが推定される。換言すると、ユーザは、左側面以外の側面に対して、ジェスチャ操作をする或いはその準備をしている状態であることが推定される。即ち、ユーザにとっては、側面静電式タッチセンサ21−3が配置された右側面は、ジェスチャ操作の対象となり得る側面であることが推定される。要するに、領域T1,T2,T3に対する接触は、ジェスチャ操作のための接触か、或いは、モバイル端末装置11の把持の補助的な接触であることが推定される。
そこで、このような場合、即ち、右側面を含む全側面に配置されている各側面静電式タッチセンサ21の接触面積が全て閾値未満である場合、図5のステップS12の処理でNOであると判定される。そして、ステップS13の処理は実行されずに、処理はステップS14に進む。従って、側面静電式タッチセンサ21−3は、ステップS14の処理におけるジェスチャ操作の検出対象となる。即ち、ユーザにとっては、側面静電式タッチセンサ21−3に対してジェスチャ操作をすると、そのジェスチャ操作は有効になる。
このように、モバイル端末装置11はジェスチャ操作誤検出防止処理を実行することで、例えばユーザが片手でモバイル端末装置11の把持とジェスチャ操作を同時に行うような場合であっても、ジェスチャ操作の誤検出を防止することができるようになる。その結果、ユーザは、片手のみでも、モバイル端末装置11の側面に対するジェスチャ操作を行うことが可能となる。
次に、側面ジェスチャ操作対応インタラクション処理のステップS15におけるインタラクション処理の具体例について、図8、9を参照して説明する。
[インタラクション処理の具体例]
図8、9は、モバイル端末装置11のインタラクション処理の具体例について説明する図である。
図8の例では、ユーザは、モバイル端末装置11の対向する2つの側面に対してジェスチャ操作をする。
図8のA1,A2は、モバイル端末装置11の右側面と左側面を同時に同方向になぞり操作するジェスチャ操作を示している。
図8のA1の例では、ジェスチャ操作として、モバイル端末装置11の右側面と左側面に対する下方向へのなぞり操作が行われる。即ち、ユーザは、側面静電式タッチセンサ21−3,21−4にそれぞれ接触させている指f2,f1を、下方向に同時になぞり操作をする。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、静電式タッチパネル22に対する通常のスクロール操作をした場合と比較して、より早い速度で表示画像を下方向に移動させる。
図8のA2の例では、ジェスチャ操作として、モバイル端末装置11の右側面と左側面に対する上方向へのなぞり操作が行われる。即ち、ユーザは、側面静電式タッチセンサ21−3,21−4にそれぞれ接触させている指f2,f1を、上方向に同時になぞり操作をする。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、静電式タッチパネル22に対する通常のスクロール操作をした場合と比較して、より早い速度で表示画像を上方向に移動させる。
なお、図8のA1,A2の例では、アフォーダンスが得られない場合も考えられる。このような場合、表示部22−Dに表示されるオブジェクトを縮小する等して俯瞰的に表示し、ジェスチャ操作による表示画像の移動速度が速くなったことを視覚的に示すこともできる。
図8のB1,B2は、モバイル端末装置11の左側面の所定の位置を接触させておきながら、右側面を上または下方向になぞり操作するジェスチャ操作を示している。
図8のB1の例では、ジェスチャ操作として、モバイル端末装置11の左側面の所定の位置を接触させながら、右側面に対する上方向へのなぞり操作が行われる。即ち、ユーザは、側面静電式タッチセンサ21−4の所定の位置を指f1で接触させながら、側面静電式タッチセンサ21−3に接触させている指f2を、上方向になぞり操作する。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、静電式タッチパネル22に対する通常の上方向へのスクロール操作をした場合と同様に、表示画像を上方向に移動させる。
図8のB2の例では、ジェスチャ操作として、モバイル端末装置11の左側面の所定の位置を接触させながら、右側面に対する下方向へのなぞり操作が行われる。即ち、ユーザは、側面静電式タッチセンサ21−4の所定の位置を指f1で接触させながら、側面静電式タッチセンサ21−3に接触させている指f2を、下方向になぞり操作する。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、静電式タッチパネル22に対する通常の下方向へのスクロール操作をした場合と同様に、表示画像を下方向に移動させる。
なお、右側面のなぞり操作をするときに、左側面を指f1で接触させておくのは、右側面のみをスクロール操作する場合の誤操作を回避させるためである。
図8のC1,C2は、モバイル端末装置11の左側面と右側面を、同時に逆方向になぞり操作するジェスチャ操作を示している。
図8のC1の例では、ジェスチャ操作として、モバイル端末装置11の右側面と左側面に対する逆方向へのなぞり操作が行われる。即ち、ユーザは、側面静電式タッチセンサ21−4に接触させている指f1を下方向になぞり操作すると同時に、側面静電式タッチセンサ21−3に接触させている指f2を上方向になぞり操作する。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、表示画像を拡大または縮小させる。
図8のC2の例では、ジェスチャ操作として、モバイル端末装置11の右側面と左側面に対する逆方向へのなぞり操作が行われる。即ち、ユーザは、側面静電式タッチセンサ21−4に接触させている指f1を上方向になぞり操作すると同時に、側面静電式タッチセンサ21−3に接触させている指f2を下方向になぞり操作する。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、表示画像を縮小または拡大させる。
なお、図8の例では、モバイル端末装置11の対向する2つの側面に位置する側面静電式タッチセンサ21として、左側面と右側面に位置する側面静電式タッチセンサ21−3と21−4に対するジェスチャ操作について説明した。しかしながら、モバイル端末装置11の対向する2つの側面として、上側面と下側面に位置する側面静電式タッチセンサ21−1と21−2を採用することもできる。なお、上側面と下側面を採用した場合、右方向へのなぞり操作をした場合は、通常の右方向へのスクロール操作をした場合と同様に、表示画像を右方向に移動させる。また、左方向へのなぞり操作をした場合は、通常の左方向へのスクロール操作をした場合と同様に、表示画像を左方向に移動させる。
図9の例では、ユーザは、モバイル端末装置11の隣接する2つの側面に位置する側面静電式タッチセンサ21−1と21−3に対して、ジェスチャ操作をする。
図9のA1,A2は、モバイル端末装置11の上側面の所定の位置を接触させながら、右側面を上または下方向になぞり操作するジェスチャ操作を示している。
図9のA1の例では、ジェスチャ操作として、モバイル端末装置11の上側面の所定の位置を接触させながら、右側面に対する上方向のなぞり操作が行われる。即ち、ユーザは、側面静電式タッチセンサ21−1の所定の位置を指f1で接触させながら、側面静電式タッチセンサ21−3に接触させている指f2を、上方向になぞり操作をする。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、表示画像をなぞり操作の方向に回転させる。この場合、側面静電式タッチセンサ21−1が配置された上側面が上方向になるように画像が表示されるデフォルトの表示方向に対して左方向に90度回転させる処理が実行される。
図9のA2の例では、ジェスチャ操作として、モバイル端末装置11の上側面の所定の位置を接触させながら、右側面に対する下方向のなぞり操作が行われる。即ち、ユーザは、側面静電式タッチセンサ21−1の所定の位置を指f1で接触させながら、側面静電式タッチセンサ21−3に接触させている指f2を、下方向になぞり操作をする。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、表示画像をなぞり操作の方向に回転させる。この場合、デフォルトの表示方向に対して右方向に90度回転させる処理が実行される。
図9のB1,B2は、モバイル端末装置11の上側面と右側面を、同時に接近する方向または離れる方向になぞり操作するジェスチャ操作を示している。
図9のB1の例では、ジェスチャ操作として、モバイル端末装置11の上側面と右側面に接触している指f1と指f2を、同時に接近する方向になぞり操作するジェスチャ操作を示している。即ち、ユーザは、側面静電式タッチセンサ21−1に接触させている指f1を右方向になぞり操作すると同時に、側面静電式タッチセンサ21−3に接触させている指f2を、上方向になぞり操作する。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、指f1または指f2の側面静電式タッチセンサ21への接触がなくなるまで、表示画像を右上方向に移動させる。
図9のB2の例では、ジェスチャ操作として、モバイル端末装置11の上側面と右側面に接触している指f1と指f2を、同時に離れる方向になぞり操作するジェスチャ操作を示している。即ち、ユーザは、側面静電式タッチセンサ21−1に接触させている指f1を左方向になぞり操作すると同時に、側面静電式タッチセンサ21−3に接触させている指f2を、下方向になぞり操作する。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、指f1または指f2の側面静電式タッチセンサ21への接触がなくなるまで、表示画像を左下方向に移動させる。
図9のC1,C2は、モバイル端末装置11の上側面または右側面から、右側面または上側面に連続してなぞり操作するジェスチャ操作を示している。
図9のC1の例では、ジェスチャ操作として、モバイル端末装置11の上側面に接触させている指fの、右側面への連続したなぞり操作が行われる。即ち、ユーザは、側面静電式タッチセンサ21−1に接触させている指fを右方向になぞり操作し、そのまま側面静電式タッチセンサ21−3を下方向になぞり操作する。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、表示画像を、現在のページから、次のページまたは前のページの表示画像へ表示を移動させる。
図9のC2の例では、ジェスチャ操作として、モバイル端末装置11の右側面に接触させている指fの、上側面への連続したなぞり操作が行われる。即ち、ユーザは、側面静電式タッチセンサ21−3に接触させている指fを上方向になぞり操作し、そのまま側面静電式タッチセンサ21−1を左方向になぞり操作する。その結果、CPU23は、次のようなインタラクション処理を実行する。即ち、CPU23は、表示画像を、現在のページから、前のページまたは次のページの表示画像へ表示を移動させる。
なお、図9のC1,C2の例の場合、隣接する2つの側面に位置する側面静電式タッチセンサ21が連続した一つのタッチセンサでない場合がある。この場合、例えば、次のようなインタラクション処理を実行するとしてもよい。即ち、一方の側面から隣接する他方の側面へなぞり操作をする場合に、一方の側面から他方の側面へのなぞり操作が一定時間以内にされた場合には、連続したなぞり操作であるとしてインタラクション処理を実行してもよい。
なお、図9の例では、モバイル端末装置11の隣接する2つの側面に位置する側面静電式タッチセンサ21として、上側面および右側面に配置される側面静電式タッチセンサ21−1と21−3に対するジェスチャ操作について説明した。しかしながら、モバイル端末装置11の隣接する2つの側面として、2つの側面が隣接する側面であれば、採用される側面は限定されない。
上述したように、モバイル端末装置11の側面に複数の側面静電式タッチセンサ21を配置したことにより、静電式タッチパネル22の一定の面積や形状が確保できないモバイル端末装置11に対しても、ジェスチャ操作をすることができるようになる。
さらに、側面静電式タッチセンサ21をモバイル端末装置11の側面に配置することにより、モバイル端末装置11の側面の形状を自由に変形することもできるようになる。以下、図10を用いて、モバイル端末装置11の側面の形状について説明する。
モバイル端末装置11には、側面静電式タッチセンサ21とタッチパネル用静電式タッチセンサ22−Sとが採用されている。
しかしながら、タッチパネル用静電式タッチセンサ22−Sは、表示部22−Dに積層されて静電式タッチパネル22を構成する。従って、表示部22−Dへの表示を阻害しないように、タッチパネル用静電式タッチセンサ22−Sとしては、透明な静電式タッチセンサを採用する必要がある。
これに対して、側面静電式タッチセンサ21は、モバイル端末装置11の側面に配置されるので、透明な静電式タッチセンサを採用する必要は特にない。したがって、側面静電式タッチセンサ21と、自由に形状を変形することができる導電性物質とを結合させることにより、モバイル端末装置11の側面を自由な形状とすることができる。
[本発明の情報処理装置の他の外観構成例]
例えば、図10は、本発明が適用される情報処理装置の一実施形態としてのモバイル端末装置の外観の構成例であって、図1の例とは異なる例を示す図である。
図10のAに示されるように、例えば、モバイル端末装置12は、曲面の形状の側面を有し、直方体状の本体部42が中央に配置される構成を有している。本体部42の表面には、静電式タッチパネル22が配置されている。
モバイル端末装置12の本体部42には、上側面に配置される側面静電式タッチセンサ21−a、および、下側面に配置される側面静電式タッチセンサ21−bが、それぞれ設けられている。また、モバイル端末装置12の本体部42には、右側面に配置される側面静電式タッチセンサ21−c、および、左側面に配置される側面静電式タッチセンサ21−dが、それぞれ設けられている。
モバイル端末装置12の側面には、その側面(曲面)に沿って湾曲した形状を有するアルミ等の導電性物質41−a乃至41−dが配置されている。
側面静電式タッチセンサ21−a乃至21−dのそれぞれには、導電性物質41−a乃至41−dのそれぞれが結合されている。
なお、以下、側面静電式タッチセンサ21−a乃至21−dを個々に区別する必要がない場合には、それらをまとめて、側面静電式タッチセンサ21と称する。同様に、導電性物質41−a乃至41−dを個々に区別する必要がない場合には、それらをまとめて導電性物質41と称する。
具体的には例えば、図10のBに示されるように、側面静電式タッチセンサ21に対して、アルミ等の導電性物質41を結合させる。側面静電式タッチセンサ21は、導電性物質41を介しても、指の接触等による静電容量の変化を検出することができる。したがって、側面静電式タッチセンサ21に結合させる導電性物質41の形状を自由に変形させることができる。即ち、導電性物質41の形状を、本発明が適用される情報処理装置側の側面の形状にあわせることができるので、本発明が適用される情報処理装置の側面を自由な形状とすることができる。図10の例では、上述のごとく、モバイル端末装置11の側面の形状が曲面であるので、導電性物質41は、その曲面に沿った湾曲した形状を有している。
なお、図10のBに示されるように、導電性物質41は、側面静電式タッチセンサ21を構成する静電センサの個数で分割され、分割された導電性物質41の間には、非導電性物質43が配置される。即ち、導電性物質41への指の接触等による静電容量の変化は、導電性物質41内を均一に伝搬する。したがって、仮に導電性物質41の間を非導電性物質43で区切らなかった場合、側面静電式タッチセンサ21は正確な静電容量の変化を検出することができない。そこで、側面静電式タッチセンサ21を構成する静電センサの個数分だけ導電性物質41を非導電性物質43で区切るのである。これにより、側面静電式タッチセンサ21のうち、導電性物質41の接触面の指の接触等があった位置に対応する領域(その領域を受け持つ静電センサ)にのみ、静電容量の変化が伝搬される。
なお、以上では、本発明の理解を容易なものとすべく、複数の静電センサの組を側面静電式タッチセンサ21とし、その側面静電式タッチセンサ21に対して、導電性物質41が結合されるという説明をした。しかしながら、複数の静電センサと、それらに結合された導電性物質41とから、側面静電式タッチセンサ21が構成されると把握してもよい。
さらにまた、本発明が適用される情報処理装置の実施の形態は、上述した例に特に限定されず、様々な実施の形態を取ることができる。
例えば、上述した例では、静電式タッチパネル22以外のジェスチャ操作は、モバイル端末装置11,12の側面に対してなされることが前提とされた。このため、側面静電式タッチセンサ21が側面に配置された。しかしながら、静電式タッチパネル22以外のジェスチャ操作の場所は、静電式タッチパネル22以外と記述している通り、静電式タッチパネル22以外の場所であれば足りる。即ち、本発明が適用される情報処理装置は、静電式タッチパネル22以外のジェスチャ操作が可能な場所に、静電式タッチセンサを配置させた構成を有していれば足りる。
例えば、図11は、本発明が適用された情報処理装置の一実施形態としてのモバイル端末装置の外観の構成例であって、図1や図10の例とは異なる例を示す図である。
図11の例では、モバイル端末装置13の表面であって、静電式タッチパネル22の配置領域以外の領域に、静電式タッチセンサ51−1乃至51−4が配置されている。
また、ジェスチャ操作を検出するセンサは、上述した例では静電式タッチセンサが採用されたが、さらに言えば、本発明が適用される情報処理装置にとって、タッチパネルや表示部は必須な構成要素ではない。即ち、ジェスチャ操作が可能な領域を有する情報処理装置であれば、本発明は適用可能である。例えば、本発明は、ヘッドホンにも適用可能である。ヘッドホンの耳あて部分等でジェスチャ操作が可能であるからである。
ところで、上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウエアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
例えば図4のモバイル端末装置11を制御するコンピュータによって実行してもよい。
図4において、CPU23が、例えば、不揮発性メモリ24に記憶されているプログラムを、RAM25にロードして実行することにより、上述した一連の処理が行われる。
CPU23が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア27に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
プログラムは、リムーバブルメディア27をドライブ26に装着することにより、不揮発性メモリ24にインストールすることができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
11,12,13 モバイル端末装置, 21 側面静電式タッチセンサ, 22 静電式タッチパネル, 22―S タッチパネル用静電式タッチセンサ, 22―D 表示部, 23 CPU, 24 不揮発性メモリ, 25 RAM, 26 ドライブ, 27 リムーバブルメディア, 41 導電性物質, 42 本体部 43 非導電性物質

Claims (6)

  1. 画像を表示する表示手段と、
    前記表示手段が配置される領域とは異なる領域に配置され、前記領域に対する接触を検出する検出手段と、
    前記検出手段により前記接触が検出された2以上の接触位置の組み合わせに基づいて操作内容を認識し、その操作内容に応じた処理の実行を制御する制御手段と
    を備える情報処理装置。
  2. 相異なる領域にそれぞれ配置された複数の前記検出手段を備える
    請求項1に記載の情報処理装置。
  3. 前記制御手段は、さらに、
    前記検出手段が配置された前記領域のうち、前記接触が検出された接触領域の面積を認識し、
    前記面積に基づいて、前記操作内容の認識の制御の実行許可と実行禁止とを切り替える
    請求項1に記載の情報処理装置。
  4. 前記制御手段は、
    前記面積が閾値以上である場合、前記検出手段により検出された接触は、ユーザによる前記情報処理装置の把持が目的であると推定して、前記操作内容の認識の制御の実行を禁止し、
    前記面積が閾値未満である場合、前記検出手段により検出された接触は、前記ユーザによる所定の操作が目的であると推定して、前記所定の操作について、その操作内容の認識の制御を許可する
    請求項3に記載の情報処理装置。
  5. 前記検出手段は、
    接触による静電容量の変化を出力する静電センサと、
    前記静電センサに結合される、可変形状の導電性物質と
    を有する請求項1に記載の情報処理装置。
  6. 画像を表示する表示手段と、
    前記表示手段が配置される領域とは異なる領域に配置され、前記領域に対する接触を検出する検出手段と
    を備える情報処理装置が、
    前記検出手段により前記接触が検出された2以上の接触位置の組み合わせに基づいて操作内容を認識し、その操作内容に応じた処理の実行を制御する
    ステップを含む情報処理方法。
JP2009114196A 2009-05-11 2009-05-11 情報処理装置および方法 Withdrawn JP2010262557A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009114196A JP2010262557A (ja) 2009-05-11 2009-05-11 情報処理装置および方法
CN2010101691189A CN101887343B (zh) 2009-05-11 2010-04-28 信息处理设备和信息处理方法
US12/772,746 US20100287470A1 (en) 2009-05-11 2010-05-03 Information Processing Apparatus and Information Processing Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009114196A JP2010262557A (ja) 2009-05-11 2009-05-11 情報処理装置および方法

Publications (1)

Publication Number Publication Date
JP2010262557A true JP2010262557A (ja) 2010-11-18

Family

ID=43063102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009114196A Withdrawn JP2010262557A (ja) 2009-05-11 2009-05-11 情報処理装置および方法

Country Status (3)

Country Link
US (1) US20100287470A1 (ja)
JP (1) JP2010262557A (ja)
CN (1) CN101887343B (ja)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145829A (ja) * 2010-01-13 2011-07-28 Buffalo Inc 操作入力装置
JP2012128668A (ja) * 2010-12-15 2012-07-05 Nikon Corp 電子機器
JP2012145867A (ja) * 2011-01-14 2012-08-02 Nikon Corp 電子機器
JP2012174252A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 電子機器、接触操作制御プログラムおよび接触操作制御方法
JP2012174246A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP2012174247A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP2012194810A (ja) * 2011-03-16 2012-10-11 Kyocera Corp 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP2012234331A (ja) * 2011-04-28 2012-11-29 Kii corp コンピューティングデバイス、コンテンツの表示方法及びプログラム
JP2012243204A (ja) * 2011-05-23 2012-12-10 Nikon Corp 電子機器及び画像表示方法
JP2013000306A (ja) * 2011-06-15 2013-01-07 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム
WO2013048486A1 (en) * 2011-09-30 2013-04-04 Intel Corporation Transforming mobile device sensor interaction to represent user intent and perception
JP2013073446A (ja) * 2011-09-28 2013-04-22 Kyocera Corp 携帯電子機器
JP2013117915A (ja) * 2011-12-05 2013-06-13 Nikon Corp 電子機器
JP2013232026A (ja) * 2012-04-27 2013-11-14 Sharp Corp 携帯情報端末
JP5347096B1 (ja) * 2012-09-13 2013-11-20 株式会社ワンダーフューチャーコーポレーション タッチパネルの製造方法及びタッチパネル、並びにタッチパネルと表示装置を具備する入出力一体型装置
JP2013238955A (ja) * 2012-05-14 2013-11-28 Sharp Corp 携帯情報端末
JP2013546066A (ja) * 2011-09-27 2013-12-26 イーロ・タッチ・ソリューションズ・インコーポレイテッド デバイスとのユーザのタッチ及び非タッチベースのインタラクション
JP2014002442A (ja) * 2012-06-15 2014-01-09 Nec Casio Mobile Communications Ltd 情報処理装置、入力受付方法及びプログラム
JP2014002655A (ja) * 2012-06-20 2014-01-09 Ntt Docomo Inc 認識装置、認識方法及び認識システム
JP2014032511A (ja) * 2012-08-02 2014-02-20 Sharp Corp 携帯情報表示装置および拡大表示方法
JP2014052791A (ja) * 2012-09-06 2014-03-20 Sharp Corp 携帯情報装置、携帯情報装置用プログラム、携帯情報装置用プログラムを記憶した記録媒体、および、携帯情報装置の操作方法
JP2014056565A (ja) * 2013-06-24 2014-03-27 Wonder Future Corp タッチパネル、タッチパネルの製造方法、及びタッチパネル一体型表示装置
JP2014071833A (ja) * 2012-10-01 2014-04-21 Toshiba Corp 電子機器、表示変更方法、及び表示変更プログラム
JP2014099199A (ja) * 2014-01-29 2014-05-29 Wonder Future Corp タッチパネル、タッチパネルの製造方法、及びタッチパネル一体型表示装置
WO2014087758A1 (ja) * 2012-12-06 2014-06-12 日本電気硝子株式会社 表示装置
KR20140100367A (ko) * 2013-02-06 2014-08-14 삼성디스플레이 주식회사 전자 기기, 이의 동작 방법 및 프로그램을 기록한 컴퓨터로 판독 가능한 매체
JP2014531686A (ja) * 2011-09-30 2014-11-27 インテル コーポレイション コンピューティングデバイスにおけるエッジ親指センサを使用し且つ促進するためのメカニズム
JP2015005182A (ja) * 2013-06-21 2015-01-08 カシオ計算機株式会社 入力装置、入力方法及びプログラム並びに電子機器
JP2015069540A (ja) * 2013-09-30 2015-04-13 アルプス電気株式会社 情報機器端末および情報機器端末のデータ保存方法
JP2015512101A (ja) * 2012-02-29 2015-04-23 ゼットティーイー コーポレーションZte Corporation タッチ操作の処理方法及び移動端末
JP2015518215A (ja) * 2012-04-25 2015-06-25 フォーガル ナノテックFogale Nanotech リンクトラックの配置を有する容量検出用デバイス、並びに前記デバイスの実装方法
KR20150076568A (ko) * 2013-12-27 2015-07-07 삼성디스플레이 주식회사 전자 기기
JP2015127952A (ja) * 2013-11-29 2015-07-09 株式会社半導体エネルギー研究所 情報処理装置および情報処理装置の駆動方法
WO2015159774A1 (ja) * 2014-04-14 2015-10-22 シャープ株式会社 入力装置、入力装置の制御方法
WO2016056516A1 (ja) * 2014-10-10 2016-04-14 シャープ株式会社 表示装置
WO2016098418A1 (ja) * 2014-12-16 2016-06-23 シャープ株式会社 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム
JP2016139431A (ja) * 2011-09-30 2016-08-04 インテル コーポレイション 意図的でないタッチセンサへの接触を排除するモバイルデバイス
JP2016149145A (ja) * 2016-03-23 2016-08-18 インテル コーポレイション コンピューティングデバイスにおけるエッジ親指センサを使用し且つ促進するためのメカニズム
JPWO2014129565A1 (ja) * 2013-02-21 2017-02-02 京セラ株式会社 装置
JP2017535895A (ja) * 2015-08-28 2017-11-30 小米科技有限責任公司Xiaomi Inc. 移動端末制御方法および移動端末
JP2018055484A (ja) * 2016-09-29 2018-04-05 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、その表示制御方法、及びコンピュータが実行可能なプログラム
JP2021002403A (ja) * 2016-03-30 2021-01-07 インテル コーポレイション 意図的でないタッチセンサへの接触を排除するモバイルデバイス

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120016641A1 (en) 2010-07-13 2012-01-19 Giuseppe Raffa Efficient gesture processing
TW201220152A (en) * 2010-11-11 2012-05-16 Wistron Corp Touch control device and touch control method with multi-touch function
JP5614275B2 (ja) * 2010-12-21 2014-10-29 ソニー株式会社 画像表示制御装置および画像表示制御方法
US9477320B2 (en) * 2011-08-16 2016-10-25 Argotext, Inc. Input device
US9092094B1 (en) 2011-09-22 2015-07-28 Amazon Technologies, Inc. Optical edge touch sensor
WO2013048469A1 (en) * 2011-09-30 2013-04-04 Intel Corporation Detection of gesture data segmentation in mobile devices
US9259904B2 (en) 2011-10-20 2016-02-16 Apple Inc. Opaque thin film passivation
US9207810B1 (en) * 2011-11-15 2015-12-08 Amazon Technologies, Inc. Fiber-optic touch sensor
US9990119B2 (en) * 2011-12-15 2018-06-05 Blackberry Limited Apparatus and method pertaining to display orientation
JP5102412B1 (ja) 2011-12-27 2012-12-19 パナソニック株式会社 情報端末、情報端末の制御方法、及び、プログラム
CN103207743A (zh) * 2012-01-16 2013-07-17 联想(北京)有限公司 便携式设备及其显示处理方法
CN103257807A (zh) * 2012-02-17 2013-08-21 林卓毅 移动通讯装置的状态切换方法及可携式电子装置
CN103324329B (zh) * 2012-03-23 2016-07-06 联想(北京)有限公司 一种触摸控制方法和装置
CN102760005B (zh) * 2012-03-26 2017-03-01 联想(北京)有限公司 一种控制电子设备的方法及装置
KR20140070745A (ko) * 2012-11-26 2014-06-11 삼성전자주식회사 디스플레이 장치 및 이의 구동 방법
JP6179412B2 (ja) * 2013-01-31 2017-08-16 株式会社Jvcケンウッド 入力表示装置
JP2014191560A (ja) * 2013-03-27 2014-10-06 Sony Corp 入力装置、入力方法、及び記録媒体
US20150077392A1 (en) * 2013-09-17 2015-03-19 Huawei Technologies Co., Ltd. Terminal, and terminal control method and apparatus
US9471150B1 (en) * 2013-09-27 2016-10-18 Emc Corporation Optimized gestures for zoom functionality on touch-based device
WO2016027779A1 (ja) * 2014-08-22 2016-02-25 シャープ株式会社 タッチパネル装置
CN104267889B (zh) * 2014-09-15 2019-03-29 联想(北京)有限公司 一种控制方法和电子设备
US10345967B2 (en) * 2014-09-17 2019-07-09 Red Hat, Inc. User interface for a device
US9681765B2 (en) * 2014-09-30 2017-06-20 Pamela Ann Cignarella Interactive children's table dishes
WO2016054190A1 (en) * 2014-09-30 2016-04-07 Pcms Holdings, Inc. Mobile device and method for interperting gestures without obstructing the screen
US9563319B2 (en) 2014-12-18 2017-02-07 Synaptics Incorporated Capacitive sensing without a baseline
KR20160099399A (ko) * 2015-02-12 2016-08-22 엘지전자 주식회사 와치 타입 단말기
CN104898975B (zh) * 2015-05-29 2018-12-07 努比亚技术有限公司 移动终端控制方法及移动终端
CN104866207A (zh) * 2015-06-09 2015-08-26 努比亚技术有限公司 一种获取应用程序辅助信息的方法及装置
CN105353964A (zh) * 2015-11-27 2016-02-24 广东欧珀移动通信有限公司 输入控制方法、装置和终端设备
CN105446627B (zh) * 2015-12-09 2019-02-15 Oppo广东移动通信有限公司 文本信息的编辑方法、装置和终端设备
WO2018057969A1 (en) 2016-09-23 2018-03-29 Apple Inc. Touch sensor panel with top and/or bottom shielding
EA201991981A1 (ru) * 2017-02-27 2020-02-27 Геза Балинт Интеллектуальное устройство с дисплеем, обеспечивающее одновременное многофункциональное управление отображаемой информацией и/или данными
US10013081B1 (en) 2017-04-04 2018-07-03 Google Llc Electronic circuit and method to account for strain gauge variation
US10635255B2 (en) 2017-04-18 2020-04-28 Google Llc Electronic device response to force-sensitive interface
US10514797B2 (en) * 2017-04-18 2019-12-24 Google Llc Force-sensitive user input interface for an electronic device
KR102707432B1 (ko) * 2019-03-15 2024-09-19 삼성디스플레이 주식회사 표시 장치

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5973676A (en) * 1993-06-30 1999-10-26 Kabushiki Kaisha Toshiba Input apparatus suitable for portable electronic device
US6323846B1 (en) * 1998-01-26 2001-11-27 University Of Delaware Method and apparatus for integrating manual input
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
JP4084582B2 (ja) * 2001-04-27 2008-04-30 俊司 加藤 タッチ式キー入力装置
WO2003098421A1 (en) * 2002-05-16 2003-11-27 Sony Corporation Inputting method and inputting apparatus
US11275405B2 (en) * 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US20040119751A1 (en) * 2002-08-07 2004-06-24 Minolta Co., Ltd. Data input device, image processing device, data input method and computer readable recording medium on which data input program is recorded
US8373660B2 (en) * 2003-07-14 2013-02-12 Matt Pallakoff System and method for a portable multimedia client
US7231231B2 (en) * 2003-10-14 2007-06-12 Nokia Corporation Method and apparatus for locking a mobile telephone touch screen
JP4903371B2 (ja) * 2004-07-29 2012-03-28 任天堂株式会社 タッチパネルを用いたゲーム装置およびゲームプログラム
CN101133385B (zh) * 2005-03-04 2014-05-07 苹果公司 手持电子设备、手持设备及其操作方法
US9727082B2 (en) * 2005-04-26 2017-08-08 Apple Inc. Back-side interface for hand-held devices
KR100668341B1 (ko) * 2005-06-29 2007-01-12 삼성전자주식회사 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치.
KR100672539B1 (ko) * 2005-08-12 2007-01-24 엘지전자 주식회사 터치스크린을 구비하는 이동통신단말기에서의 터치 입력인식 방법 및 이를 구현할 수 있는 이동통신단말기
US20070291008A1 (en) * 2006-06-16 2007-12-20 Daniel Wigdor Inverted direct touch sensitive input devices
US20090213081A1 (en) * 2007-01-10 2009-08-27 Case Jr Charlie W Portable Electronic Device Touchpad Input Controller
DE102007016408A1 (de) * 2007-03-26 2008-10-02 Ident Technology Ag Mobiles Kommunikationsgerät und Eingabeeinrichtung hierfür
US20110069018A1 (en) * 2007-05-11 2011-03-24 Rpo Pty Limited Double Touch Inputs
CN101308421B (zh) * 2007-05-15 2013-08-07 宏达国际电子股份有限公司 无阻碍触控操作的电子装置
KR101442542B1 (ko) * 2007-08-28 2014-09-19 엘지전자 주식회사 입력장치 및 이를 구비한 휴대 단말기
EP2187291A4 (en) * 2007-09-05 2012-06-13 Panasonic Corp PORTABLE TERMINAL DEVICE AND DISPLAY CONTROL TECHNIQUE
US8933892B2 (en) * 2007-11-19 2015-01-13 Cirque Corporation Touchpad combined with a display and having proximity and touch sensing capabilities to enable different functions or interfaces to be displayed
US8432372B2 (en) * 2007-11-30 2013-04-30 Microsoft Corporation User input using proximity sensing
US8154523B2 (en) * 2007-12-13 2012-04-10 Eastman Kodak Company Electronic device, display and touch-sensitive user interface
DE602007006329D1 (de) * 2007-12-21 2010-06-17 Ericsson Telefon Ab L M Tragbare elektronische Vorrichtung und Verfahren zur Steuerung einer Benutzerschnittstelle davon
US20090166098A1 (en) * 2007-12-31 2009-07-02 Apple Inc. Non-visual control of multi-touch device
US8395584B2 (en) * 2007-12-31 2013-03-12 Sony Corporation Mobile terminals including multiple user interfaces on different faces thereof configured to be used in tandem and related methods of operation
US20090195959A1 (en) * 2008-01-31 2009-08-06 Research In Motion Limited Electronic device and method for controlling same
WO2010007813A1 (ja) * 2008-07-16 2010-01-21 株式会社ソニー・コンピュータエンタテインメント 携帯型画像表示装置、その制御方法及び情報記憶媒体
US9459784B2 (en) * 2008-07-25 2016-10-04 Microsoft Technology Licensing, Llc Touch interaction with a curved display
US20100053111A1 (en) * 2008-09-04 2010-03-04 Sony Ericsson Mobile Communications Ab Multi-touch control for touch sensitive display
US8441450B2 (en) * 2008-09-30 2013-05-14 Apple Inc. Movable track pad with added functionality
US8508475B2 (en) * 2008-10-24 2013-08-13 Microsoft Corporation User interface elements positioned for display
US8368658B2 (en) * 2008-12-02 2013-02-05 At&T Mobility Ii Llc Automatic soft key adaptation with left-right hand edge sensing
US20100138680A1 (en) * 2008-12-02 2010-06-03 At&T Mobility Ii Llc Automatic display and voice command activation with hand edge sensing
US8294047B2 (en) * 2008-12-08 2012-10-23 Apple Inc. Selective input signal rejection and modification
US20100153313A1 (en) * 2008-12-15 2010-06-17 Symbol Technologies, Inc. Interface adaptation system
US20100277420A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Hand Held Electronic Device and Method of Performing a Dual Sided Gesture
US8941600B2 (en) * 2010-03-05 2015-01-27 Mckesson Financial Holdings Apparatus for providing touch feedback for user input to a touch sensitive surface
US20110216015A1 (en) * 2010-03-05 2011-09-08 Mckesson Financial Holdings Limited Apparatus and method for directing operation of a software application via a touch-sensitive surface divided into regions associated with respective functions
US20120032891A1 (en) * 2010-08-03 2012-02-09 Nima Parivar Device, Method, and Graphical User Interface with Enhanced Touch Targeting
US20130300668A1 (en) * 2012-01-17 2013-11-14 Microsoft Corporation Grip-Based Device Adaptations
US9104313B2 (en) * 2012-09-14 2015-08-11 Cellco Partnership Automatic adjustment of selectable function presentation on electronic device display

Cited By (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011145829A (ja) * 2010-01-13 2011-07-28 Buffalo Inc 操作入力装置
JP2012128668A (ja) * 2010-12-15 2012-07-05 Nikon Corp 電子機器
JP2012145867A (ja) * 2011-01-14 2012-08-02 Nikon Corp 電子機器
JP2012174247A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP2012174252A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 電子機器、接触操作制御プログラムおよび接触操作制御方法
JP2012174246A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP2012194810A (ja) * 2011-03-16 2012-10-11 Kyocera Corp 携帯電子機器、接触操作制御方法および接触操作制御プログラム
JP2012234331A (ja) * 2011-04-28 2012-11-29 Kii corp コンピューティングデバイス、コンテンツの表示方法及びプログラム
JP2012243204A (ja) * 2011-05-23 2012-12-10 Nikon Corp 電子機器及び画像表示方法
JP2013000306A (ja) * 2011-06-15 2013-01-07 Square Enix Co Ltd ビデオゲーム処理装置、およびビデオゲーム処理プログラム
JP2013546066A (ja) * 2011-09-27 2013-12-26 イーロ・タッチ・ソリューションズ・インコーポレイテッド デバイスとのユーザのタッチ及び非タッチベースのインタラクション
US9448714B2 (en) 2011-09-27 2016-09-20 Elo Touch Solutions, Inc. Touch and non touch based interaction of a user with a device
JP2013073446A (ja) * 2011-09-28 2013-04-22 Kyocera Corp 携帯電子機器
US10416795B2 (en) 2011-09-30 2019-09-17 Intel Corporation Mechanism for employing and facilitating an edge thumb sensor at a computing device
WO2013048486A1 (en) * 2011-09-30 2013-04-04 Intel Corporation Transforming mobile device sensor interaction to represent user intent and perception
JP2014531686A (ja) * 2011-09-30 2014-11-27 インテル コーポレイション コンピューティングデバイスにおけるエッジ親指センサを使用し且つ促進するためのメカニズム
JP2016139431A (ja) * 2011-09-30 2016-08-04 インテル コーポレイション 意図的でないタッチセンサへの接触を排除するモバイルデバイス
JP2013117915A (ja) * 2011-12-05 2013-06-13 Nikon Corp 電子機器
US9507473B2 (en) 2012-02-29 2016-11-29 Zte Corporation Method for processing touch operation and mobile terminal
JP2015512101A (ja) * 2012-02-29 2015-04-23 ゼットティーイー コーポレーションZte Corporation タッチ操作の処理方法及び移動端末
JP2015519644A (ja) * 2012-04-25 2015-07-09 フォーガル ナノテックFogale Nanotech 容量制御表面を実装する装置と相互作用する方法、この方法を実装する、インターフェース及び装置
JP2015518215A (ja) * 2012-04-25 2015-06-25 フォーガル ナノテックFogale Nanotech リンクトラックの配置を有する容量検出用デバイス、並びに前記デバイスの実装方法
JP2013232026A (ja) * 2012-04-27 2013-11-14 Sharp Corp 携帯情報端末
JP2013238955A (ja) * 2012-05-14 2013-11-28 Sharp Corp 携帯情報端末
JP2014002442A (ja) * 2012-06-15 2014-01-09 Nec Casio Mobile Communications Ltd 情報処理装置、入力受付方法及びプログラム
JP2014002655A (ja) * 2012-06-20 2014-01-09 Ntt Docomo Inc 認識装置、認識方法及び認識システム
JP2014032511A (ja) * 2012-08-02 2014-02-20 Sharp Corp 携帯情報表示装置および拡大表示方法
JP2014052791A (ja) * 2012-09-06 2014-03-20 Sharp Corp 携帯情報装置、携帯情報装置用プログラム、携帯情報装置用プログラムを記憶した記録媒体、および、携帯情報装置の操作方法
JP5347096B1 (ja) * 2012-09-13 2013-11-20 株式会社ワンダーフューチャーコーポレーション タッチパネルの製造方法及びタッチパネル、並びにタッチパネルと表示装置を具備する入出力一体型装置
KR20150004372A (ko) 2012-09-13 2015-01-12 가부시키가이샤 원더 퓨쳐 코포레이션 터치 패널, 터치 패널의 제조 방법, 및 터치 패널 일체형 표시 장치
WO2014041967A1 (ja) * 2012-09-13 2014-03-20 株式会社ワンダーフューチャーコーポレーション タッチパネル、タッチパネルの製造方法、及びタッチパネル一体型表示装置
JP2014071833A (ja) * 2012-10-01 2014-04-21 Toshiba Corp 電子機器、表示変更方法、及び表示変更プログラム
WO2014087758A1 (ja) * 2012-12-06 2014-06-12 日本電気硝子株式会社 表示装置
JP2014115321A (ja) * 2012-12-06 2014-06-26 Nippon Electric Glass Co Ltd 表示装置
KR102044157B1 (ko) * 2013-02-06 2019-11-14 삼성디스플레이 주식회사 전자 기기, 이의 동작 방법 및 프로그램을 기록한 컴퓨터로 판독 가능한 매체
KR20140100367A (ko) * 2013-02-06 2014-08-14 삼성디스플레이 주식회사 전자 기기, 이의 동작 방법 및 프로그램을 기록한 컴퓨터로 판독 가능한 매체
US9891815B2 (en) 2013-02-21 2018-02-13 Kyocera Corporation Device having touch screen and three display areas
JPWO2014129565A1 (ja) * 2013-02-21 2017-02-02 京セラ株式会社 装置
JP2015005182A (ja) * 2013-06-21 2015-01-08 カシオ計算機株式会社 入力装置、入力方法及びプログラム並びに電子機器
JP2014056565A (ja) * 2013-06-24 2014-03-27 Wonder Future Corp タッチパネル、タッチパネルの製造方法、及びタッチパネル一体型表示装置
JP2015069540A (ja) * 2013-09-30 2015-04-13 アルプス電気株式会社 情報機器端末および情報機器端末のデータ保存方法
JP2015127952A (ja) * 2013-11-29 2015-07-09 株式会社半導体エネルギー研究所 情報処理装置および情報処理装置の駆動方法
US11294561B2 (en) 2013-11-29 2022-04-05 Semiconductor Energy Laboratory Co., Ltd. Data processing device having flexible position input portion and driving method thereof
US11714542B2 (en) 2013-11-29 2023-08-01 Semiconductor Energy Laboratory Co., Ltd. Data processing device and driving method thereof for a flexible touchscreen device accepting input on the front, rear and sides
US10592094B2 (en) 2013-11-29 2020-03-17 Semiconductor Energy Laboratory Co., Ltd. Data processing device and driving method thereof
KR102189451B1 (ko) * 2013-12-27 2020-12-14 삼성디스플레이 주식회사 전자 기기
KR20150076568A (ko) * 2013-12-27 2015-07-07 삼성디스플레이 주식회사 전자 기기
JP2014099199A (ja) * 2014-01-29 2014-05-29 Wonder Future Corp タッチパネル、タッチパネルの製造方法、及びタッチパネル一体型表示装置
WO2015159774A1 (ja) * 2014-04-14 2015-10-22 シャープ株式会社 入力装置、入力装置の制御方法
WO2016056516A1 (ja) * 2014-10-10 2016-04-14 シャープ株式会社 表示装置
JP2016115208A (ja) * 2014-12-16 2016-06-23 シャープ株式会社 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム
WO2016098418A1 (ja) * 2014-12-16 2016-06-23 シャープ株式会社 入力装置、ウェアラブル端末、携帯端末、入力装置の制御方法、および入力装置の動作を制御するための制御プログラム
JP2017535895A (ja) * 2015-08-28 2017-11-30 小米科技有限責任公司Xiaomi Inc. 移動端末制御方法および移動端末
JP2016149145A (ja) * 2016-03-23 2016-08-18 インテル コーポレイション コンピューティングデバイスにおけるエッジ親指センサを使用し且つ促進するためのメカニズム
JP2021002403A (ja) * 2016-03-30 2021-01-07 インテル コーポレイション 意図的でないタッチセンサへの接触を排除するモバイルデバイス
JP7317784B2 (ja) 2016-03-30 2023-07-31 インテル コーポレイション 意図的でないタッチセンサへの接触を排除するモバイルデバイス
JP2018055484A (ja) * 2016-09-29 2018-04-05 レノボ・シンガポール・プライベート・リミテッド 情報処理装置、その表示制御方法、及びコンピュータが実行可能なプログラム

Also Published As

Publication number Publication date
CN101887343A (zh) 2010-11-17
CN101887343B (zh) 2013-11-20
US20100287470A1 (en) 2010-11-11

Similar Documents

Publication Publication Date Title
JP2010262557A (ja) 情報処理装置および方法
US10318146B2 (en) Control area for a touch screen
EP2175344B1 (en) Method and apparatus for displaying graphical user interface depending on a user's contact pattern
EP3037927B1 (en) Information processing apparatus and information processing method
US8368667B2 (en) Method for reducing latency when using multi-touch gesture on touchpad
US20120256856A1 (en) Information processing apparatus, information processing method, and computer-readable storage medium
JP2014510337A (ja) 少なくとも2つのタッチスクリーンを含む情報表示装置及びその情報表示方法
US9201587B2 (en) Portable device and operation method thereof
WO2012167735A1 (zh) 电子设备、触摸输入方法和控制方法
JP2011503709A (ja) デジタイザのためのジェスチャ検出
KR20100136578A (ko) 터치 입력 수단 및 스타일러스 펜, 이를 이용한 터치스크린 장치, 및 터치스크린 제어방법
US20150169122A1 (en) Method for operating a multi-touch-capable display and device having a multi-touch-capable display
US20140282279A1 (en) Input interaction on a touch sensor combining touch and hover actions
KR101339420B1 (ko) 베젤 영역을 이용한 전자책 컨텐츠 제어방법 및 장치
US20150370443A1 (en) System and method for combining touch and gesture in a three dimensional user interface
JP2012208636A (ja) タッチスクリーンデバイスの制御装置、その制御方法及びプログラム
WO2013061326A1 (en) Method for recognizing input gestures.
KR101333211B1 (ko) 베젤을 이용한 터치스크린 제어방법
KR101436585B1 (ko) 원 포인트 터치를 이용한 사용자 인터페이스 제공 방법 및 이를 위한 장치
JP5477108B2 (ja) 情報処理装置及びその制御方法並びにプログラム
JP2014056519A (ja) 携帯端末装置、誤操作判定方法、制御プログラムおよび記録媒体
US20150153871A1 (en) Touch-sensitive device and method
JP6218451B2 (ja) プログラム実行装置
US20150091831A1 (en) Display device and display control method
TWI522895B (zh) 介面操作方法與應用該方法之可攜式電子裝置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120807