JP2012221072A - 情報処理装置、情報処理方法およびコンピュータプログラム - Google Patents

情報処理装置、情報処理方法およびコンピュータプログラム Download PDF

Info

Publication number
JP2012221072A
JP2012221072A JP2011084127A JP2011084127A JP2012221072A JP 2012221072 A JP2012221072 A JP 2012221072A JP 2011084127 A JP2011084127 A JP 2011084127A JP 2011084127 A JP2011084127 A JP 2011084127A JP 2012221072 A JP2012221072 A JP 2012221072A
Authority
JP
Japan
Prior art keywords
unit
information
operation input
information processing
finger
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011084127A
Other languages
English (en)
Other versions
JP5716502B2 (ja
Inventor
Seiji Suzuki
誠司 鈴木
Takuro Noda
卓郎 野田
Ikuo Yamano
郁男 山野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011084127A priority Critical patent/JP5716502B2/ja
Priority to EP12161558.7A priority patent/EP2508974A3/en
Priority to KR1020120032156A priority patent/KR20120114163A/ko
Priority to US13/433,869 priority patent/US8878800B2/en
Priority to CN201220130265XU priority patent/CN202870797U/zh
Priority to BRBR102012007381-1A priority patent/BR102012007381A2/pt
Priority to RU2012112466/08A priority patent/RU2012112466A/ru
Priority to CN2012100913010A priority patent/CN102736784A/zh
Priority to TW101111520A priority patent/TW201243671A/zh
Publication of JP2012221072A publication Critical patent/JP2012221072A/ja
Application granted granted Critical
Publication of JP5716502B2 publication Critical patent/JP5716502B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Character Discrimination (AREA)

Abstract

【課題】ユーザの意図しない操作入力による誤動作を防止する情報処理装置を提供する。
【解決手段】情報処理装置は、検出領域における操作体の位置を検出する位置検出部と、操作体の位置情報に基づいて、位置検出部により検出されたすべての操作体の移動速度を算出する速度算出部と、速度算出部により算出された操作体の移動速度に基づいて、入力された操作入力を判定する操作入力判定部と、入力された操作入力に基づいて、所定の処理を実行する実行処理部と、を備える。
【選択図】図4

Description

本開示は、情報処理装置、情報処理方法およびコンピュータプログラムに関し、より詳細には、操作入力する操作体の位置を検出するセンサを備える情報処理装置、情報処理方法およびコンピュータプログラムに関する。
スマートフォン等として普及しているGUI(Graphical User Interface)のコントローラとして、タッチパネル等のような、操作入力する操作体の位置を検出するセンサを用いた入力デバイスがある。近年では、複数の指の接触を同時に検出できる、いわゆるマルチタッチを検出可能なタッチパネルも普及し始めている。
また、デバイスに複数のセンサを備えることによって、操作性の向上を実現することも行われている(例えば、特許文献1、2)。このようなデバイスにおいて、センサの1つをデバイスの表示部と反対側の面(背面)に指の接触を検出するタッチパネルを備えることで、背面側で操作入力を行うことができるようになり、小型のデバイスであっても表示画面を指で隠すことがなくなる。また、複数のセンサを設けることで、従来のタッチパネルでは実現できなかったような直感的なインタラクションや、操作系の拡張を実現することができる。
特開2010−108061号公報 特開2009−157908号公報
しかし、デバイスの背面側に指の接触を検出するセンサを設けた場合、ユーザは操作時にこのセンサを視認することができない。このため、ユーザが意図せず背面に設けられたセンサに触れてしまう場合もある。その結果、デバイスが検出した接触情報に応じて処理を実行してしまい、誤動作が発生してしまう。そこで、このような誤動作を防止することが求められてきた。
本開示によれば、検出領域における操作体の位置を検出する位置検出部と、操作体の位置情報に基づいて、位置検出部により検出されたすべての操作体の移動速度を算出する速度算出部と、速度算出部により算出された操作体の移動速度に基づいて、入力された操作入力を判定する操作入力判定部と、入力された操作入力に基づいて、所定の処理を実行する実行処理部と、を備える、情報処理装置が提供される。
本技術によれば、ユーザの意図する操作入力を判定するために、背面への接触が検出された指の移動速度を算出し、算出された移動速度から同一方向や反対方向等類似の動きを行う指をまとめてグループ化する。そして、各グループの移動速度である動き情報に基づいてユーザの操作入力が判定され、操作入力に応じた処理を実行するためのコマンドが発行される。これにより、ユーザの意図する操作入力を的確に判定することができ、誤操作を防止することができる
また、本開示によれば、検出領域における操作体の位置を検出するステップと、操作体の位置情報に基づいて、検出されたすべての操作体の移動速度を算出するステップと、算出された操作体の移動速度に基づいて、入力された操作入力を判定するステップと、入力された操作入力に基づいて、所定の処理を実行するステップと、を含む、情報処理方法が提供される。
さらに、本開示によれば、コンピュータを、検出領域における操作体の位置を取得する位置取得部と、操作体の位置情報に基づいて、位置取得部により取得されたすべての操作体の移動速度を算出する速度算出部と、速度算出部により算出された操作体の移動速度に基づいて、入力された操作入力を判定する操作入力判定部と、入力された操作入力に基づいて、所定の処理を実行する実行処理部と、を備える、情報処理装置として機能させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、誤動作を防止することの可能な情報処理装置、情報処理方法およびコンピュータプログラムが提供される。
本開示の第1の実施形態に情報処理端末の表示面側を示す概略斜視図である。 同実施形態に係る情報処理端末の背面側を示す概略斜視図である。 同実施形態に係る情報処理端末の一ハードウェア構成例について説明するブロック図である。 同実施形態に係る情報処理装置の機能構成を示す機能ブロック図である。 同実施形態に係る操作入力判定部の機能構成を示す機能ブロック図である。 背面での操作入力の一例を示す説明図である。 同実施形態に係る情報処理装置による情報処理を示すフローチャートである。 同一方向に動く指を1つのグループにまとめた状態を示す説明図である。 反対方向に動く指を2つのグループにまとめた状態を示す説明図である。 図7のステップS130の処理を示すフローチャートである。 ローテーション操作が行われている状態を示す説明図である。 ピンチアウト操作が行われている状態を示す説明図である。 ピンチイン操作が行われている状態を示す説明図である。 フリック操作判定処理を示すフローチャートである。 指の近さに基づくグループ化を説明する説明図である。 本開示の第2の実施形態に係る情報処理端末の一ハードウェア構成例について説明するブロック図である。 同実施形態に係る情報処理装置の機能の一部を示す機能ブロック図である。 同実施形態に係る実行処理部による優先度に基づく実行処理決定の流れを示すフローチャートである。 同実施形態に係る実行処理部による優先度に基づく実行処理決定の流れであって、処理の一時停止をする場合を示すフローチャートである。 図19に示す処理の流れに基づく一処理例を示す説明図である。 同実施形態に係る情報処理端末の一構成例を示す概略平面図である。 同実施形態に係る実行処理部による優先度に基づく実行処理決定が適用される一画面表示例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態(操作体の移動速度に基づく操作入力の判定)
1‐1.情報処理端末の構成
1‐2.情報処理装置による処理
1‐3.その他
2.第2の実施形態(優先度に基づく実行処理の決定)
2‐1.情報処理端末の構成
2‐2.情報処理装置による処理
2‐3.その他
<1.第1の実施形態>
[1‐1.情報処理端末の構成]
(情報処理端末の外観例)
まず、図1および図2を参照して、本発明の実施形態に係る情報処理端末100の概略構成について説明する。なお、図1は、本実施形態に係る情報処理端末100の表示面側を示す概略斜視図である。図2は、本実施形態に係る情報処理端末100の背面側を示す概略斜視図である。
本実施形態に係る情報処理端末100には、筺体110の一面(表示面)に表示部120が設けられ、表示面と反対側の面(背面)に指等の操作体の接触を検出可能なタッチセンサ130が設けられている。表示部120は、例えば液晶ディスプレイや有機ELディスプレイ等を用いることができる。また、タッチセンサ130としては、静電容量式のタッチセンサを用いることができる。なお、本実施形態に係る情報処理端末100は、後述する第2の実施形態のように表示面側にもタッチセンサ(図示せず。)を設けることもできる。
(ハードウェア構成例)
本実施形態に係る情報処理端末100は、図3に示すようなハードウェア構成により実現できる。図3は、本実施形態に係る情報処理端末100の一ハードウェア構成例を示すハードウェア構成図である。
図3に示すように、本実施形態に係る情報処理端末100は、CPU101と、不揮発性メモリ102と、RAM(Random Access Memory)103と、ディスプレイ104と、背面タッチセンサ105とを備える。
CPU101は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置100内の動作全般を制御する。また、CPU101は、マイクロプロセッサであってもよい。不揮発性メモリ102は、CPU101が使用するプログラムや演算パラメータ等を記憶する。不揮発性メモリ102は、例えばROM(Read Only Memory)やフラッシュメモリ等を用いることができる。RAM103は、CPU101の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。
ディスプレイ104は、情報を出力する出力装置の一例である。ディスプレイ104として、例えば液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置などを用いることができる。
背面タッチセンサ105は、ユーザが情報を入力する入力装置の1つであって、情報処理端末100のディスプレイ104の表示面と反対側の面に設けられ、指等の操作体の位置の接触を検出する。背面タッチセンサ105としては、例えば、静電気による電気信号を感知することにより操作体の接触を検知する静電式タッチパネルや、背面への圧力の変化を感知して指の接触を検知する感圧式のタッチパネルを用いることができる。背面タッチセンサ105は、情報を入力ための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。
なお、本実施形態では、タッチセンサはディスプレイ104の表示面と反対側の背面に設けられているが、タッチセンサの設置位置について本技術はかかる例に限定されない。タッチセンサは、ディスプレイ104の表示面と積層して設けてもよく、端末の側面に設けてもよい。
(情報処理装置の機能構成)
次に、図4および図5に基づいて、本実施形態に係る情報処理端末100に設けられる情報処理装置140の機能構成について説明する。なお、図4は、本実施形態に係る情報処理装置140の機能構成を示す機能ブロック図である。図5は、本実施形態に係る操作入力判定部143の機能構成を示す機能ブロック図である。
本実施形態に係る情報処理端末100には、図1〜図3に示したように、背面に対する操作体の接触を検出する背面タッチセンサ105が設けられている。これにより、情報処理端末100の背面からの操作入力が可能となり、ユーザは、ディスプレイ104に表示された情報を視認しながら操作入力できる。このとき、背面タッチセンサ105で操作入力する際に、ユーザが意図せず背面タッチセンサ105を触ってしまうことがある。意図しない接触は、誤作動の要因ともなってしまう。そこで、本実施形態に係る情報処理端末100は、ユーザの意図に沿って動かされている操作体を判定し、当該操作体の動きに基づく操作入力を判定する情報処理装置140を備えている。
情報処理装置140は、図4に示すように、位置検出部141と、速度算出部142と、操作入力判定部143と、実行処理部144と、出力部145と、設定記憶部146とを備える。
位置検出部141は、情報処理端末100への操作体の接触を検出する。図3に示したように、本実施形態に係る情報処理端末100は背面タッチセンサ105を備えている。位置検出部141は、背面タッチセンサ105からの背面での指の位置情報を取得する。位置検出部141は、背面タッチセンサ105により所定時間毎に検出される背面に対する指の接触についての検出結果を取得し、背面の検出領域における指の位置を位置情報として速度算出部142に出力する。
速度算出部142は、位置検出部141から入力された位置情報に基づいて、各指の移動速度を算出する。情報処理装置140は、位置検出部141により所定時間毎に検出された指の位置情報を履歴管理するメモリ(図示せず。)を備えている。速度算出部142は、指の位置情報の履歴に基づいて背面に接触している指の移動速度を算出し、操作入力判定部143へ出力する。
操作入力判定部143は、指の移動速度に基づいて、背面に接触している指の動きを解析して操作入力を判定する。操作入力判定部143は、図5に示すように、グループ化処理部143aと、動き情報算出部143bと、操作入力解析部143cとを備える。
グループ化処理部143aは、位置検出部141により背面に対する接触が検出された指を、所定のグループ分け条件に基づいて1または複数のグループに区分する。本実施形態に係る情報処理端末100では、端末背面から操作入力するため、ユーザの意図しない指が操作入力時に背面に接触してしまうこともある。そこで、本実施形態に係る情報処理装置140は、複数の指が背面に接触しているとき、同一の動きを行っていると考えられる指をグループ化処理部143aによりまとめ、1つのグループを1つの仮想的な指(仮想指)として考える。これにより、ユーザが意図せず背面に接触している指による誤操作を防止することができ、ユーザの意図した操作を可能とする。なお、検出された指をグループ化するグループ化処理についての詳細な説明は後述する。グループ化処理部143aは、検出された各指の属するグループを表すグループ情報を動き情報算出部143bへ出力する。
動き情報算出部143bは、グループ化処理部143aから入力されたグループ情報に基づいて、各グループの動きを表す動き情報を算出する。グループの動き情報は、同一グループに含まれる指の移動速度より算出されるグループの移動速度およびグループの位置情報である。動き情報の算出処理についての詳細な説明は後述する。動き情報算出部143bは、算出した各グループの動き情報を操作入力解析部143cへ出力する。
操作入力解析部143cは、動き情報算出部143bより入力された各グループの動き情報に基づいて、ユーザの操作入力を解析する。操作入力解析部143cは、あるグループの動きや複数グループ間の動きの関係等に基づいて、ユーザの操作入力を解析する。なお、操作入力解析部143cによる操作入力解析処理の詳細については後述する。操作入力解析部143cにより解析された操作入力は、実行処理部144へ出力される。
図4の説明に戻り、実行処理部144は、操作入力判定部143により判定されたユーザの操作入力に応じた処理を実行するためのコマンドを発行する。実行処理部144は、後述する設定記憶部146には、操作入力と発行コマンドとが対応付けられた実行処理情報が記憶されている、実行処理部144は、設定記憶部146に記憶されている実行処理情報に基づいて、操作入力に対応するコマンドを発行し、当該コマンドに応じた処理が情報処理端末100で実行される。
出力部145は、情報をユーザに提供するために出力する機能部であって、例えば図3のディスプレイ104に対応する。実行処理部144により発行されたコマンドによりディスプレイ104の表示情報が変更される等の処理が行われる。出力部145は、ディスプレイ104以外にも、例えば音声を出力するスピーカや、操作入力するユーザに伝える振動を発生する振動発生部、点灯・点滅するランプ等であってもよい。
設定記憶部146は、操作入力に応じたコマンド発行を行うために必要な情報を記憶する記憶部であって、例えば、図3の不揮発性メモリ102やRAM103に対応する。設定記憶部146には、例えば、グループ情報や実行処理情報、後述するグループ化処理に必要な速さや角度情報(例えば、vth、θ、θ等)、フリック操作の判定処理に必要な時間情報(N)等が記憶される。
[1‐2.情報処理装置による処理]
本実施形態に係る情報処理端末100は、上述した情報処理装置140を備えることにより、各指の移動速度に基づいてユーザの意図する操作入力を判定し、当該操作入力に応じたコマンドを発行することができる。例えば、図6に示すように、情報処理端末100の背面にてディスプレイ104の表示面に表示された情報をスクロールあるいはドラッグする操作入力を行う際、1本の指で操作入力したつもりであっても、意図せず他の指も背面に接触してしまうこともある。このとき、本実施形態に係る情報処理装置140は、同一方向に動いていると判定される指をグループ化し、背面操作など複数の指が同時に接触しやすくなる場合でも誤操作を防止し、ユーザの意図した操作を可能にする。
以下、図7〜図14に基づいて、本実施形態に係る情報処理装置140による情報処理について、詳細に説明する。なお、図7は、本実施形態に係る情報処理装置140による情報処理を示すフローチャートである。図8は、同一方向に動く指を1つのグループにまとめた状態を示す説明図である。図9は、反対方向に動く指を2つのグループにまとめた状態を示す説明図である。図10は、図7のステップS130の処理を示すフローチャートである。図11は、ローテーション操作が行われている状態を示す説明図である。図12は、ピンチアウト操作が行われている状態を示す説明図である。図13は、ピンチイン操作が行われている状態を示す説明図である。図14は、フリック操作判定処理を示すフローチャートである。
本実施形態に係る情報処理装置140は、図7に示すように、まず所定時間毎に位置検出部141により背面に対する指の接触を検出する(S110)。指の接触が検出されると、検出領域における指の位置情報はメモリ(図示せず。)に履歴として記録される。次いで、速度算出部142は、メモリに記憶されている位置情報に基づいて、検出された各指の移動速度を算出する(S120)。算出された各指の移動速度は、操作入力判定部143へ出力される。
操作入力判定部143は、速度算出部142から各指の移動速度の入力を受けると、まず、グループ化処理部143aにより検出された指をグループ化する処理を行う(S130)。指をグループ化するグループ分け条件は適宜設定することができるが、本実施形態では、検出された指のうち移動速度が最大の指を基準として、基準とする指の向きと他の指との関係に基づきグループ分けする。
より詳細に説明すると、グループ化処理部143aは、速度算出部142により算出された移動速度より得られる各指の関連性に基づき、指をグループ化する。この移動速度より得られる各指の関連性は、例えば図8に示すイメージとして表すことができる。図8では、指の移動速度を速度ベクトルとして表し、各指の速度ベクトルの始点を原点0に合わせて示したものである。図8において、Vxは、図6に示す操作領域の位置を特定するxy座標のうちx方向における速さを示し、Vyは、図6に示す操作領域の位置を特定するxy座標のうちy方向における速さを示している。
図8には4つの速度ベクトルv、v、v、vが記載されていることから背面では4つの指の接触が検出されていることがわかる。このとき、グループ化処理部143aは、3つの速度ベクトルv、v、v、vのうち移動速度が最大の速度ベクトルvを基準(以下、「基準ベクトル」とする。)として決定する。基準ベクトルを決定すると、グループ化処理部143aは、基準ベクトルに対応する指(基準指)と同一方向に移動しているとみなせる指を特定する。基準指と同一方向に移動しているとみなす指は、基準指の移動方向と同一方向に移動する指としてもよく、基準ベクトルから所定の角度±θ以内の領域に存在する指としてもよい。後者の場合、図8の領域Aに存在する速度ベクトルv、vに対応する指が基準指と同一方向に移動しているとみなされる。このように、基準指およびこれと同一方向に移動しているとみなされた指は、1つのグループにまとめられる。
なお、図8において、速度ベクトルvは領域Aに入っていないが、その速さは所定速さvth以下である。vthは指が意図的に移動されているとは考えられない程度の大きさに設定される。すなわち、vthは、ユーザに移動させる意図はなかったが、意図せず僅かに動いた指を、グループ化する対象から除外するために設定された値である。この速さvth以下の指は、その移動方向によらず移動していない指とみなすことで、操作入力を判定する際に意図せず動いた指を除外することができ、より正確にユーザの意図する操作入力を判定することが可能となる。
グループ化する対象から除外する指には、所定速さ以下の指以外にも、例えば、背面に対する接触面積が所定面積より大きい指や、背面に対する指の接触形状が所定の形状である指等を含めてもよい。接触面積が大きい指や例えば接触形状が細長い場合等は、情報処理端末100を保持するために、ユーザが意図的に強く指を接触させていると考えられるためである。さらに、情報処理端末100に背面に対する圧力を検出可能なセンサが設けられている場合には、背面に対して所定圧力より大きい圧力を加えている指をグループ化する対象から除外する指に加えてもよい。かかる指も、情報処理端末100を保持するために、ユーザが意図的に端末に対して力を加えていると考えられるためである。このような指も除外することで、より正確にユーザの意図する操作入力を判定することが可能となる。
また、基準ベクトルが決定すると、グループ化処理部143aは、基準ベクトルに対応する指(基準指)と反対方向に移動しているとみなせる指を特定する。基準指と反対方向に移動しているとみなす指は、基準指の移動方向と反対方向に移動する指としてもよく、基準ベクトルと反対方向を向く反対ベクトルに対して所定の角度±θ以内の領域に存在する指としてもよい。なお、角度θは、角度θと同一であってもよく異なってもよい。後者の場合、図9の領域Bに存在する速度ベクトルv、vに対応する指が基準指と反対方向に移動しているとみなされる。このように、基準指と反対方向に移動しているとみなされた指は、1つのグループにまとめられる。
ステップS130の具体的な処理をフローチャートで表すと、図10に示すようになる。ステップS120にて接触が検出された指の移動速度が算出されると、図10に示すように、グループ化処理部143aにより、最も移動速度の大きい指が検出される(S131)。当該指が基準指となる。そして、グループ化処理部143aは、すべての指についてグループ分けされたか否かを判定し(S132)、未グループの指がある場合にはステップS133〜S135の処理によりその指をグループ分けする。例えば、グループ化処理部143aは、指の移動速度より、当該指が移動していないとみなすか否かを判定する(S133)。ステップS133では、指の速さが所定速さvth以下であるか否かが判定される。指の速さが所定速さvth以下である場合には、当該指は移動していないとみなす指のグループに区分し(S133a)、ステップS132の処理に戻る。
一方、指の速さが所定速さvthより大きい場合には、当該指が基準指と同一方向に移動しているか否かが判定される(S134)。ステップS133では、図8に示したように、指の動きを表す速度ベクトルが基準ベクトルから所定の角度±θ以内の領域Aに存在するか否かが判定される。指の移動ベクトルが領域Aに存在すると判定された場合には、当該指は基準指と同一方向に移動すると判定され、基準指と同一グループに区分される(S134a)。その後、ステップS132の処理に戻り、新たな指についてのグループ分けが行われる。一方、指の移動ベクトルが領域Aに存在しないと判定された場合には、当該指が基準指と反対方向に移動しているか否かが判定される(S135)。
ステップS135では、図9に示したように、指の動きを表す速度ベクトルが基準ベクトルと反対方向を向く反対ベクトルから所定の角度±θ以内の領域Bに存在するか否かが判定される。指の移動ベクトルが領域Bに存在すると判定された場合には、当該指は基準指と反対方向に移動すると判定され、基準指とは異なるグループに区分される(S135a)。その後、ステップS132の処理に戻り、新たな指についてのグループ分けが行われる。一方、指の移動ベクトルが領域Bに存在しないと判定された場合には、当該指は新たなグループに区分され(S135b)、その後、ステップS132の処理に戻り、新たな指についてのグループ分けが行われる。
ステップS132にて未グループの指がないと判定された場合には、区分されたグループ数に応じてコマンドが発行される(S136)。ステップS136の処理は、後述する図7のステップS140〜S160の処理に対応するので、ここでは詳細な説明を省略する。
このように、グループ化処理部143aは、移動速度が最大の指を基準として、他の指をその移動する向きと基準指の移動する向きとの関係に応じてグループ分けする。これにより、位置検出部141により検出された指は、1または複数のグループにまとめられる。
各指をグループにまとめると、動き情報算出部143bは、各グループの動き情報を算出する(S140)。グループの動き情報は、グループの移動速度であって、グループに属する指の移動速度に基づき算出することができる。例えば、動き情報算出部143bは、グループに属する指の位置情報より重心座標と算出し、当該グループの位置情報とする。また、動き情報算出部143bは、グループに属する指の移動速度より平均移動速度を算出し、当該グループの移動速度とする。そして、動き情報算出部143bは、グループの位置情報およびグループの移動速度を当該グループの動き情報とする。このようにグループの動き情報を算出することで、グループに属する指の平均的な位置および移動速度によって当該グループの動きを表すことができる。
あるいは、グループの動き情報として、例えば、当該グループに属する指のうち、操作入力開始時において移動速度が最大の指の移動速度および位置情報を用いるようにしてもよい。移動速度が大きい指は、ユーザが意図的に移動させていると考えられるので、そのグループの代表として扱うことができる。1本の指の動きを当該指の属するグループの動きとすることで、グループに属する他の指の動きの影響を受けることがなく、安定した動き情報を取得することができる。
グループの動き情報は、当該グループの動きを表したものであって、仮想的な1本の指の動きとみなることができる。このように、複数の指が同じように動いている場合には1つの仮想的な指による操作とみなすことで、意図せず背面に接触した指の動きによって誤った操作入力が判定されるのを防止することができる。動き情報算出部143bは、ステップS130により分けられた各グループについて、動き情報を算出する。
さらに、操作入力解析部143cは、ステップS140にて算出された各グループの動き情報に基づいて、ユーザの操作入力を解析する(S150)。操作入力解析部143cは、例えば、動き情報よりグループの向きによって操作入力を特定することができる。例えば、図6に示すように、同一方向に移動する指からなる1つのグループのみが検出されている場合には、ディスプレイ104の表示面に表示されている情報をスクロールさせる操作入力が行われていると判定できる。また、例えば、2つのグループが検出されている場合には、そのグループの向きに応じてユーザの操作入力を判定することができる。
例えば、図11の上図に示すように、情報処理端末100の背面に両手の指をそれぞれ接触させて、各手を逆方向(図11ではy軸正方向とy軸負方向)に移動させたとする。このとき、グループ化処理部143aによって背面に接触している指は、その移動速度に基づいて図11の下図に示すように2つのグループにまとめられる。すなわち、移動速度が最大の指を基準指として、これと同一方向に移動するグループと、反対方向に移動するグループとにまとめると、図11の下図に示すy軸正方向側に移動する手の指からなるグループと、y軸負方向側に移動する手の指からなるグループとが生成される。
操作入力解析部143cは、グループの動き情報より、このグループの位置関係と移動する向きとを算出し、設定記憶部146に記憶された設定情報に基づいて、ユーザの行った操作入力を解析する。設定記憶部146には、グループの動き情報やグループの位置関係と移動する向きとの関係から推定される操作入力が記憶されている。
複数のグループの位置関係は、各グループの動き情報の始点を結んだ直線により表すことができる。本実施形態に係る操作入力解析部143cは、当該直線の方向に対して各グループがどの向きに移動したかに基づき、操作入力を特定する。例えば、図11に示す例では、2つのグループは、各グループの動き情報の始点を結んだ直線の方向に対して略直交する方向に移動しており、かつ2つのグループは反対方向に移動している。操作入力解析部143cは、設定記憶部146に記憶された設定情報に基づき、ローテーション操作が行われていると判定することができる。ローテーション操作は、2つの操作体で操作対象を回転させる動作であって、例えば、ディスプレイ104に表示された情報を回転させるコマンドを発行させる操作として利用することができる。
また、例えば、図12の上図に示すように、情報処理端末100の背面に両手の指をそれぞれ接触させて、各手を逆方向(図12ではx軸正方向とx軸負方向)に離すように移動させたとする。この場合も、グループ化処理部143aによって背面に接触している指は、その移動速度に基づいて図12の下図に示すように2つのグループにまとめられる。操作入力解析部143cは、図11と同様に、グループの動き情報より、このグループの位置関係と移動する向きとを算出し、ユーザの行った操作入力を解析する。図12に示す例では、2つのグループは、各グループの動き情報の始点を結んだ直線の方向に対して略平行な方向に移動しており、かつ2つのグループは反対方向に離れるように移動している。操作入力解析部143cは、設定記憶部146に記憶された設定情報に基づき、ピンチアウト操作が行われていると判定することができる。
さらに、例えば、図13の上図に示すように、情報処理端末100の背面に両手の指をそれぞれ接触させて、各手を逆方向(図13ではx軸正方向とx軸負方向)に近づけるように移動させたとする。この場合も、グループ化処理部143aによって背面に接触している指は、その移動速度に基づいて図13の下図に示すように2つのグループにまとめられる。操作入力解析部143cは、図11と同様に、グループの動き情報より、このグループの位置関係と移動する向きとを算出し、ユーザの行った操作入力を解析する。図13に示す例では、2つのグループは、各グループの動き情報の始点を結んだ直線の方向に対して略平行な方向に移動しており、かつ2つのグループは反対方向に近づくように移動している。操作入力解析部143cは、設定記憶部146に記憶された設定情報に基づき、ピンチイン操作が行われていると判定することができる。
このように、ステップS150では、操作入力解析部143cによりグループの動き情報より、このグループの位置関係と移動する向きとが算出され、ユーザの行った操作入力が判定される。
その後、実行処理部144は、ステップS150にて判定されたユーザの操作入力に対応する処理を実行させるコマンドを発行する(S160)。実行処理部144は、設定記憶部146に記憶されている操作入力と発行するコマンドとが関連付けられた実行処理情報に基づき、判定された操作入力に対応するコマンドを発行する。例えば、図6に示すように、同一方向に移動する複数の指からなる1グループの動き情報より操作入力がスクロール操作と判定されたとき、実行処理部144は、例えば当該グループの移動方向にディスプレイ104の表示情報をスクロールさせるコマンドを発行する。
また、例えば図11に示すように、操作入力がローテーション操作であると判定されたとき、実行処理部144は、ディスプレイ104に表示された情報を回転させるコマンドを発行してもよい。あるいは、例えば図12に示すように、操作入力がピンチアウト操作であると判定されたとき、実行処理部144は、ディスプレイ104に表示された情報を拡大させるコマンドを発行してもよい。さらに、例えば図13に示すように、操作入力がピンチイン操作であると判定されたとき、実行処理部144は、ディスプレイ104に表示された情報を縮小させるコマンドを発行してもよい。
このように、ステップS160では、処理実行部144により、判定された操作入力に応じた処理を実行させるコマンドが発行される。情報処理端末100は、発行されたコマンドに応じて対応する処理を実行する。
以上、本実施形態に係る情報処理端末100の情報処理装置140による情報処理について説明した。かかる処理では、ユーザの意図する操作入力を判定するために、背面への接触が検出された指の移動速度を算出し、算出された移動速度から同一方向や反対方向等類似の動きを行う指をまとめてグループ化する。そして、各グループの移動速度である動き情報に基づいてユーザの操作入力が判定され、操作入力に応じた処理を実行するためのコマンドが発行される。これにより、ユーザの意図する操作入力を的確に判定することができ、誤操作を防止することができる。
[1‐3.その他]
(フリック操作判定処理)
ここで、図7のステップS150にて、操作入力解析部143cによりユーザの操作入力が判定されるが、複数指によるフリック操作を判定するためには、例えば図14に示す処理のような判定処理が必要となる。ディスプレイ104の表示面側でドラッグ操作を行う場合には、ドラッグ操作に使用される1本の指を離した瞬間にフリック操作のコマンドを発行することで、実行されている処理を慣性により継続させる慣性スクロールを実現している。しかし、背面側にて複数の指でフリック操作をした場合、フリック操作のコマンドを発行するタイミングを決定しておく必要がある。
本実施形態では、図14に示すように、ドラッグに使用されていたすべての指が背面から離されたときにフリック操作のコマンドを発行するようにする。例えば図6に示すように、3本の指によりドラッグ操作が行われているとする。これらの指はグループ化処理部143aによって同一グループに区分されている。このグループの動き情報に基づき、操作入力解析部143cによりドラッグ操作が行われていると判定されると、実行処理部144はドラッグ操作に対応する処理を実行するためのコマンドを発行する。
その後、操作入力解析部143cは、位置検出部141の検出結果に基づき、当該グループに属する指のうち少なくとも1本が背面から離されたか否かを判定する(S151)。操作入力解析部143cは、背面から指が離れていない間はステップS151の判定を繰り返す。一方、背面から指が1本でも離れると、操作入力解析部143cは、過去N秒前までに当該指とともにドラッグ操作を行っていた他の指が背面に接触しているか否かを判定する(S152)。ステップS152にて他の指がまだ背面に接触していると判定した場合には、ステップS151に戻り、処理を繰り返す。したがって、ステップS152の処理は、指が背面から離れる毎に実行されることになる。
そして、ステップS152にて過去N秒前までに背面から離された指とともにドラッグ操作を行っていた他の指が1本も背面に接触していない場合には、フリック操作が行われたと判定し、対応するコマンドが発行される(S153)。このように、本実施形態に係る情報処理装置140は、図14に示す処理に基づき、複数の指でフリック操作を行った場合でもフリック操作が行われたことを判定することができ、対応するコマンドを発行することができる。
(指の近さに応じたグループ分け)
また、上記説明においては、図8および図9に示したように、指の移動速度に基づいてグループ分けを行ったが、本技術はかかる例に限定されない。例えば、背面への接触が検出された指の位置情報より、指の近さに応じてグループ分けしてもよい。具体的には、グループ化処理部143aは、各指の位置情報に基づいてそれぞれの指の距離を算出し、ある1本の指と他の指との距離が所定距離以上離れている場合には他のグループとするようにしてもよい。
例えば図15に示すように、5本の指が背面に接触している状況においては、親指は、他の4本の指のグループGP1とは異なるグループGP2に区分されることになる。指のグループ分けを指の移動速度に基づき行うか、指の位置情報に基づき行うか、あるいはこれらを組み合わせて行うかについては、判定する操作入力等に応じて適宜設定することができる。
<2.第2の実施形態>
次に、図16〜図22に基づいて、第2の実施形態に係る情報処理端末200の構成とその機能について説明する。本実施形態に係る情報処理端末200は、第1の実施形態と比較して、情報処理端末200に対する接触を検出するタッチセンサを複数備える点で相違する。複数のタッチセンサを備えている場合においても、第1の実施形態と同様、ユーザが意図せず触ってしまいやすい位置にタッチセンサが設けられている場合には誤操作が起こりやすい。このため、複数のタッチセンサを備える情報処理端末200においては、各タッチセンサから同時に操作入力が行われた場合には、ユーザが意図的に操作し易いタッチセンサからの操作入力を優先して実行する。
以下、本実施形態に係る情報処理端末200の構成とその機能について詳細に説明する。なお、図16は、本実施形態に係る情報処理端末200の一ハードウェア構成例について説明するブロック図である。図17は、本実施形態に係る情報処理装置240の機能の一部を示す機能ブロック図である。図18は、本実施形態に係る実行処理部244による優先度に基づく実行処理決定の流れを示すフローチャートである。図19は、本実施形態に係る実行処理部244による優先度に基づく実行処理決定の流れであって、処理の一時停止をする場合を示すフローチャートである。図20は、図19に示す処理の流れに基づく一処理例を示す説明図である。図21は、本実施形態に係る情報処理端末の一構成例を示す概略平面図である。図22は、本実施形態に係る実行処理部244による優先度に基づく実行処理決定が適用される一画面表示例を示す説明図である。
なお、以下の説明において、第1の実施形態と同一の構成および機能についての詳細な説明は省略する。
[2‐1.情報処理端末の構成]
(ハードウェア構成例)
本実施形態に係る情報処理端末200は、例えば図16に示すように、CPU101と、不揮発性メモリ102と、RAM(Random Access Memory)103と、ディスプレイ104と、背面タッチセンサ105と、表面タッチセンサ206とを備える。すなわち、本実施形態に係る情報処理端末200は、図3に示す第1の実施形態に係る情報処理端末100のハードウェア構成と比較して、表面タッチセンサ206を備える点でのみ相違する。したがって、CPU101、不揮発性メモリ102、RAM103、ディスプレイ104、および背面タッチセンサ105についての説明は省略する。
表面タッチセンサ206は、背面タッチセンサ105と同様、ユーザが情報を入力する入力装置(入力操作部)の1つであって、情報処理端末200のディスプレイ104の表示面と積層して設けられ、指等の操作体の位置の接触を検出する。表面タッチセンサ206は、背面タッチセンサ105と反対側の面に設けられている。表面タッチセンサ206としては、例えば、静電式タッチパネルや、感圧式のタッチパネルを用いることができる。表面タッチセンサ206は、情報を入力ための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU101に出力する入力制御回路などから構成されている。
なお、本実施形態に係る情報処理端末200は2つのタッチセンサを備えているが、本技術はかかる例に限定されず、3以上のタッチセンサを備えることもできる。また、本実施形態では、タッチセンサはディスプレイ104の表示面側と反対側の背面とに設けられているが、タッチセンサの設置位置について本技術はかかる例に限定されず、例えば端末の側面に設けてもよい。
(機能構成)
本実施系形態に係る情報処理端末200は、2つのタッチセンサ105、206から同時に操作入力を受けたとき、これらのタッチセンサに対して予め設定された優先度に基づいて操作入力に基づく処理を実行する。かかる処理は、第1の実施形態に係る情報処理装置140を用いて実現することができる。
より具体的に説明すると、本実施形態に係る情報処理端末200は、図4に示す第1の実施形態の情報処理装置140と同様に構成された情報処理装置240を備えることができる。すなわち、情報処理装置240は、図4に示す位置検出部141、速度算出部142、操作入力判定部143、実行処理部144、出力部145、および設定記憶部146に対応する位置検出部241、速度算出部242、操作入力判定部243、実行処理部244、出力部245、および設定記憶部246を備える。なお、本実施形態に係る情報処理装置240の機能構成を示す図17には、実行処理部244、出力部245、および設定記憶部246のみ記載している。
位置検出部241は、情報処理端末200への操作体の接触を検出する。本実施形態に係る情報処理端末200は、図16に示すように、背面タッチセンサ105および表面タッチセンサ206を備えている。したがって、位置検出部241は、背面タッチセンサ105から背面での指の位置情報を取得する第1の位置検出部と、表面タッチセンサ206から表面での指の位置情報を取得する第2の位置検出部とからなる。位置検出部241は、各タッチセンサ105、206により所定時間毎に検出される背面および表面に接触する指の検出結果と取得し、背面の検出領域における指の位置および表面の検出領域における指の位置を位置情報として速度算出部242に出力する。
速度算出部242は、位置検出部241から入力された位置情報に基づいて、各指の移動速度を算出する。速度算出部242は、例えば第1の実施形態に係る速度算出部142と同様に機能することができる。速度算出部242は、指の位置情報の履歴に基づいて背面または表面に接触している指の移動速度を算出し、操作入力判定部243へ出力する。
操作入力判定部243は、指の移動速度に基づいて、背面に接触している指の動きを解析して操作入力を判定する。操作入力判定部243は、例えば第1の実施形態の操作入力判定部143と同様に機能することができる。この際、操作入力判定部243は、背面での操作入力および表面での操作入力をそれぞれ判定する。操作入力判定部143により判定されたこれらの操作入力は、実行処理部244へ出力される。
実行処理部244は、操作入力判定部243により判定されたユーザの操作入力に応じた処理を実行するためのコマンドを発行する。実行処理部244は、後述する設定記憶部に記憶されている実行処理情報に基づき、操作入力に対応するコマンドを発行する。また、本実施形態に係る実行処理部244は、背面および表面から同時に操作入力を受けたとき、いずれの操作入力に応じた処理を実行させるかを判定する。実行処理部244は、設定記憶部246に記憶されているタッチセンサの優先度に基づいて当該判定を行う。このように、実行処理部244により、優先度の高い操作入力に対応する処理を実行するためのコマンドが発行される。
出力部245は、情報をユーザに提供するために出力する機能部であって、例えば図16のディスプレイ104に対応する。出力部245は、第1の実施形態と同様、例えばスピーカや、振動発生部、ランプ等であってもよい。
設定記憶部246は、操作入力に応じたコマンド発行を行うために必要な情報を記憶する記憶部であって、例えば、図16の不揮発性メモリ102やRAM103に対応する。設定記憶部146には、例えば、操作入力と発行するコマンドとが関連付けられた実行処理情報や、複数のタッチセンサ等の操作入力部に対して付与された優先度等が記憶されている。また、情報処理装置240が第1の実施形態に係る情報処理装置140と同様の処理を行う場合には、設定記憶部246には、例えば、グループ情報やグループ化処理に必要な速さや角度情報、フリック操作の判定処理に必要な時間情報等が記憶される。
なお、本実施形態に係る情報処理装置240は、第1の実施形態と同様に操作入力を判定しコマンドを発行するものとして説明したが、本技術はかかる例に限定されない。本実施形態に係る情報処理装置240は、複数の操作入力を検出することができる装置であればよく、第1の実施形態にて説明したグループ化処理や操作入力判定処理以外の手法を用いて複数の操作入力を検出することができればよい。
[2‐2.情報処理装置による情報処理]
次に、図18に基づいて、本実施形態に係る情報処理装置240による実行処理を決定する流れを説明する。図18に示すように、まず、位置検出部241の検出結果に基づいて、操作入力判定部243は、情報処理端末200に設けられた操作入力部からの操作入力を検出する(S210)。ステップS210は、例えば第1の実施形態の図7のステップS110〜S150の処理に基づき行うことができる。
操作入力が検出されると、実行処理部244は、複数の操作入力が検出されたか否かを判定する(S212)。ステップS212の判定は、例えば、位置検出部241を構成する複数の位置検出部のうち2以上の位置検出部からの入力があったか否かにより判定することもでき、あるいは、操作入力判定部243により判定された操作入力の数に基づき判定することもできる。ステップS212にて操作入力が1つであると判定した場合には、実行処理部244は、当該操作入力に対応する処理を実行するためのコマンドを発行し(S214)、処理を終了する。一方、ステップS212にて複数の操作入力があると判定した場合には、実行処理部は、設定記憶部246に記憶されている、操作入力部に対して付与された優先度をチェックする(S216)。
操作入力部に対して付与される優先度は、例えば、ユーザが意図的に操作入力を行いやすい位置に設けられた操作入力部ほど高く設定することができる。言い換えると、ユーザが意図せず指を接触させてしまう可能性の高い位置に設けられた操作入力部の優先度は低く設定されることになる。具体的には、ディスプレイ104の表示面側である表面と、その反対側の背面とでは、ユーザは表面での操作入力の方が背面での操作入力より行いやすく、正確に情報を入力することができる。これより、表面タッチセンサ206に対して背面タッチセンサ105より高い優先度が付与される。このような優先度を設けることにより、ユーザが意図する操作入力に基づく処理を優先的に実行させることができ、誤操作を防止することができる。
ステップS216にて各操作入力が行われた操作入力部の優先度をチェックすると、実行処理部244は、最も優先度の高い操作入力部にて行われた操作入力に対応処理を実行するコマンドを発行し(S218)、処理を終了する。
以上、本実施形態に係る情報処理装置240による優先度に基づく実行処理の決定の流れを説明した。
(既操作入力による実行中の処理の一時停止)
ここで、図18のステップS218において最も優先度が高い操作入力に応じたコマンドが発行されるとき、実行処理部244は、これ以外の操作入力に応じたコマンドは強制的に取り消して、1つの操作入力に応じたコマンドしか発行しないようにしてもよい。あるいは、最も優先度の高い操作入力が終了するまでの間、他の操作入力が継続して行われている場合には、当該他の操作入力に応じた処理の実行を一時的に停止して、最も優先度の高い操作入力の終了後に実行させるようにしてもよい。かかる処理について、図19および図20に基づき説明する。
図19に示すように、まず、操作入力判定部243により、第1の操作入力部からの第1の操作入力のみが検出されていたとする(S220)。第1の操作入力のみが検出されている間は、実行処理部244は、第1の操作入力に基づく処理を実行する(S221)。その後、第1の操作入力が継続して行われている間に第2の操作入力部からの第2の操作入力が検出されたとする(S222)。このように、第1の操作入力と第2の操作入力とがと同時に検出されたとき、実行処理部244は、第1の操作入力の優先度および第2の操作入力の優先度を設定記憶部246より取得し、いずれの優先度が高いかを比較する(S223)。
ステップS223にて第1の操作入力の優先度より第2の操作入力の優先度の方が高いと判定した場合、実行処理部244は、第1の操作入力に対応する処理を一時停止し(S224)、第2の操作入力に対応する処理を実行するコマンドを発行する(S225)。これにより、第1の操作入力に対応する処理は一時的に行われないようになり、優先度の高い第2の操作入力による処理が実行されるようになる。
その後、第2の操作入力が続けて行われているかを所定のタイミングで判定し(S226)、第2の操作入力がある場合にはステップS224からの処理を繰り返す。一方、S226にて第2の操作入力が終了したと判定した場合には、実行処理部224は、第2の操作入力に対応する処理を終了する(S227)。そして、実行処理部224は、第1の操作入力が継続して行われていたか否かを判定し(S228)、第1の操作入力が継続して行われていた場合には、第1の操作入力に対応する処理の一時停止を解除する(S229)。一方、ステップS228にて第1の操作入力が既に終了していた場合には、ステップS224にて一時停止していた処理を終了し、図19に示す処理を終了する。
ステップS223の処理に戻り、第1の操作入力の優先度が第2の操作入力の優先度よりが高いと判定した場合には、第2の操作入力に基づく処理は実行されず、第1の操作入力に対応する処理が継続して実行される(S230)。
図19に示した処理の一具体例を図20に示す。図20は、それぞれコンテンツが関連付けられた複数のオブジェクト222からなるオブジェクトリストが情報処理端末200の表示部220に表示されている。オブジェクトリストは、背面からの操作入力に応じてスクロールさせることができる。また、オブジェクトリストを構成する各オブジェクト222は、表面からの操作入力に応じて操作することができる。
このとき、図20の初期状態からオブジェクトリストを所定方向にスクロールさせるため、背面に指を接触させたとする。情報処理装置240により背面に指が接触したことが検出されると、次第に所定方向にオブジェクトリストがスクロールし、所定時間が経過すると、一定の速度でオブジェクトリストがスクロールされるようになる(スクロール中)。その後、スクロール中に表面に指が接触したことが検出されると、実行処理部244は、設定記憶部246を参照し、背面タッチセンサ105および表面タッチセンサ206の優先度を取得して、いずれの操作入力に基づく処理を実行するかを判定する。
ここで、ユーザが視認して操作し易い位置に設けられた表面タッチセンサ206の操作入力の方が背面タッチセンサ105からの操作入力よりもユーザが意図的に行ったと考えることができる。これより本例では、表面タッチセンサ206の優先度が背面タッチセンサ105の優先度より高く設定されている。したがって、実行処理部244は、オブジェクトリストのスクロールを一時停止し、表面からの操作入力に応じてオブジェクトリストを構成するオブジェクトを操作可能にする(コンテンツ操作中)。
その後、ユーザが表面から指を離したとき、実行処理部244は、背面に指がまだ接触されているか否かを判定し、指が背面に継続して接触されている場合には、一時停止していたオブジェクトリストを再び一定の速度でスクロールさせる。これにより、所定時間の経過を待つことなく、オブジェクトリストを一定の速度でスクロールさせることができ、ユーザの操作負荷を軽減することができる。一方、ユーザが表面から指を離したとき、背面に接触していた指が既に離されている場合には、実行処理部244は、例えばオブジェクトリストを初期状態に戻したり、表面から指を離したときの状態のオブジェクトリストを表示させたままの状態としたりしてもよい。
[2‐3.その他]
(操作入力部の構成に応じた優先度の設定)
上記説明において、操作入力が行われる操作入力部は、背面タッチセンサ105や表面タッチセンサ206としたが、本技術はかかる例に限定されない。例えば、操作入力部は、図21に示すように、操作対象を上下左右に移動させるための方向キー212や所定の処理の実行を指示する入力ボタン214、216、アナログジョイスティック(図示せず。)等のハードウェア入力部であってもよい。
この場合にも、実行処理部244は、ソフトウェアやハードウェアの構成によらず、操作入力部から操作入力が複数検出された場合には、予め設定された優先度に基づいて実行する1つの処理を決定する。例えば、タッチセンサと比較してハードウェア入力部を用いた入力はユーザが意図的に行ったものと考えられることから、ハードウェア入力部の優先度をタッチセンサよりも高く設定するようにしてもよい。
(優先度に基づき実行する1つの処理を決定する場合)
また、上記説明では、複数の操作入力が検出された場合には、予め設定された優先度に基づいて1つの処理のみを実行し、他の処理は強制終了したり一時停止したりしたが、本技術はかかる例に限定されない。例えば、複数の操作入力が検出されたとき、各操作入力に対応する処理を実行すると処理が衝突する場合のみ、優先度に基づいて実行する処理を1つに決定するようにしてもよい。
例えば、情報処理端末200の表示部220に表示させる情報224を表示領域内にすべて表示できない場合、図22に示すように、表示領域に表示される情報224を移動できるようにスクロールバーが表示される。この第1の情報224は、例えば背面に指を接触させてスクロール操作することにより移動できるとする。一方、第1の情報224には、第2の情報226が含まれており、第2の情報226は第1の情報224の所定領域に表示されている。当該所定領域内に第2の情報226のすべてを表示させることができないため、ここにも第2の情報226を移動できるようにスクロールバーが表示されている。第2の情報226は、例えば表面に指を接触させてスクロール操作することにより移動できるとする。
このような場合において、背面および表面において同時にスクロール操作が行われた場合、本実施形態のように優先度に基づき実行する処理を1つに決定しなければ、第1の情報224および第2の情報226はともにスクロールされてしまう。そうすると、ユーザが移動を意図しない情報まで動いてしまい、ユーザは意図する情報を確認することができなくなる。このように、複数の操作入力が検出されたとき、各操作入力に対応する処理を実行すると処理が衝突する場合には、本実施形態に係る情報処理装置240によって、誤動作の発生を防止することができる。
これに対して、複数の操作入力が検出された場合であっても各操作入力に対応する処理を実行しても処理が衝突しない場合には、並行してこれらの処理を実行してもよい。
以上、第2の実施形態に係る情報処理端末200の構成とその機能について説明した。本実施形態によれば、複数の操作入力が検出されたとき、操作入力が行われた操作入力部に設定された優先度に基づき、優先度の高い1つの処理のみを実行する。これにより、ユーザの意図に沿った処理を実行することができ、誤操作を防止することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、検出領域に対する指等の操作体の位置を、タッチセンサを用いて検出領域に対する接触により検出したが、本技術はかかる例に限定されない。例えば、タッチセンサの代わりに近接センサを用いて操作体の位置を取得してもよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
検出領域における操作体の位置を検出する位置検出部と、
前記操作体の位置情報に基づいて、前記位置検出部により検出されたすべての操作体の移動速度を算出する速度算出部と、
前記速度算出部により算出された操作体の移動速度に基づいて、入力された操作入力を判定する操作入力判定部と、
入力された操作入力に基づいて、所定の処理を実行する実行処理部と、
を備える、情報処理装置。
(2)
前記操作入力判定部は、
前記位置検出部により検出された操作体を1または複数のグループに区分するグループ化処理部と、
グループに含まれる操作体の移動速度に基づいて、前記各グループの動きを表す動き情報を算出する動き情報算出部と、
前記各グループの動き情報に基づいて、入力された操作入力を判定する判定部と、
を備える、前記(1)に記載の情報処理装置。
(3)
前記グループ化処理部は、前記速度算出部により算出された操作体の移動速度のうち、移動速度が最大の操作体を基準操作体として、当該基準操作体の移動の向きと他の操作体の移動の向きとの関係に基づいて、操作体を1または複数のグループに区分する、前記(2)に記載の情報処理装置。
(4)
前記グループ化処理部は、前記基準操作体の移動の向きとなす角度が所定範囲内である他の操作体を、前記基準操作体と同一方向を向く操作体としてグループ化する、前記(3)に記載の情報処理装置。
(5)
前記グループ化処理部は、前記基準操作体の移動の向きと反対の向ときなす角度が所定範囲内である他の操作体を、前記基準操作体と反対向を向く操作体としてグループ化する、前記(3)または(4)に記載の情報処理装置。
(6)
前記グループ化処理部は、前記位置検出部により検出された操作体を、各操作体間の距離に応じてグループ化する、前記(2)から(5)のいずれか1項に記載の情報処理装置。
(7)
前記グループ化処理部は、前記位置検出部により検出された操作体のうち、移動速度が所定値より小さい操作体を、グループ化の対象から除外する、前記(2)から(6)のいずれか1項に記載の情報処理装置。
(8)
前記動き情報算出部は、同一グループに含まれる操作体の位置情報より重心位置および平均移動速度を算出し、当該重心位置および当該平均移動速度を当該グループの動き情報とする、前記(2)から(7)のいずれか1項に記載の情報処理装置。
(9)
前記動き情報算出部は、同一グループに含まれる操作体のうち、移動速度が最大の操作体の位置情報および移動速度を当該グループの動き情報とする、前記(2)から(8)のいずれか1項に記載の情報処理装置。
(10)
前記操作入力判定部が、グループ化処理部により区分された前記グループの動き情報より、すべてのグループが同一向きに移動していると判定したとき、
前記実行部は、表示装置に表示されている情報をスクロールする処理を実行する、前記(2)から(9)のいずれか1項に記載の情報処理装置。
(11)
前記実行部によりスクロール処理が実行された後、当該スクロール処理を実行しているグループに属する操作体のうち少なくとも1つについての位置情報が取得されなくなってから所定時間が経過するまでの間に、当該グループに属する操作体すべての位置情報が取得されなくなったと前記操作入力判定部により判定されたとき、
前記実行部は、表示装置に表示されている情報をフリックする処理を実行させる、前記(10)に記載の情報処理装置。
(12)
前記操作入力判定部が、グループ化処理部により区分された前記グループの動き情報より、反対向きに移動するグループがあると判定したとき、
前記実行部は、前記反対向きに移動するグループの動き情報に応じて、表示装置に表示されている情報のサイズを変更する処理を実行する、前記(2)から(11)のいずれか1項に記載の情報処理装置。
(13)
前記位置検出部は、接触領域に対する操作体の接触位置を検出する、前記(1)から(12)のいずれか1項に記載の情報処理装置。
(14)
前記位置検出部は、接触領域に対する操作体の近接位置を検出する、前記(1)から(12)のいずれか1項に記載の情報処理装置。
(15)
前記位置検出部は、ユーザが意図的に操作入力する際に意図せず操作体を検出する可能性のある位置に設けられる、前記(1)から(14)のいずれか1項に記載の情報処理装置。
100、200 情報処理端末
140、240 情報処理装置
141、241 位置検出部
142、242 速度算出部
143、243 操作入力判定部
143a グループ化処理部
143b 動き情報算出部
143c 操作入力解析部
144、244 実行処理部
145、245 出力部
146、246 設定記憶部

Claims (17)

  1. 検出領域における操作体の位置を検出する位置検出部と、
    前記操作体の位置情報に基づいて、前記位置検出部により検出されたすべての操作体の移動速度を算出する速度算出部と、
    前記速度算出部により算出された操作体の移動速度に基づいて、入力された操作入力を判定する操作入力判定部と、
    入力された操作入力に基づいて、所定の処理を実行する実行処理部と、
    を備える、情報処理装置。
  2. 前記操作入力判定部は、
    前記位置検出部により検出された操作体を1または複数のグループに区分するグループ化処理部と、
    グループに含まれる操作体の移動速度に基づいて、前記各グループの動きを表す動き情報を算出する動き情報算出部と、
    前記各グループの動き情報に基づいて、入力された操作入力を判定する判定部と、
    を備える、請求項1に記載の情報処理装置。
  3. 前記グループ化処理部は、前記速度算出部により算出された操作体の移動速度のうち、移動速度が最大の操作体を基準操作体として、当該基準操作体の移動の向きと他の操作体の移動の向きとの関係に基づいて、操作体を1または複数のグループに区分する、請求項2に記載の情報処理装置。
  4. 前記グループ化処理部は、前記基準操作体の移動の向きとなす角度が所定範囲内である他の操作体を、前記基準操作体と同一方向を向く操作体としてグループ化する、請求項3に記載の情報処理装置。
  5. 前記グループ化処理部は、前記基準操作体の移動の向きと反対の向ときなす角度が所定範囲内である他の操作体を、前記基準操作体と反対向を向く操作体としてグループ化する、請求項3に記載の情報処理装置。
  6. 前記グループ化処理部は、前記位置検出部により検出された操作体を、各操作体間の距離に応じてグループ化する、請求項2に記載の情報処理装置。
  7. 前記グループ化処理部は、前記位置検出部により検出された操作体のうち、移動速度が所定値より小さい操作体を、グループ化の対象から除外する、請求項2に記載の情報処理装置。
  8. 前記動き情報算出部は、同一グループに含まれる操作体の位置情報より重心位置および平均移動速度を算出し、当該重心位置および当該平均移動速度を当該グループの動き情報とする、請求項2に記載の情報処理装置。
  9. 前記動き情報算出部は、同一グループに含まれる操作体のうち、移動速度が最大の操作体の位置情報および移動速度を当該グループの動き情報とする、請求項2に記載の情報処理装置。
  10. 前記操作入力判定部が、グループ化処理部により区分された前記グループの動き情報より、すべてのグループが同一向きに移動していると判定したとき、
    前記実行部は、表示装置に表示されている情報をスクロールする処理を実行する、請求項2に記載の情報処理装置。
  11. 前記実行部によりスクロール処理が実行された後、当該スクロール処理を実行しているグループに属する操作体のうち少なくとも1つについての位置情報が取得されなくなってから所定時間が経過するまでの間に、当該グループに属する操作体すべての位置情報が取得されなくなったと前記操作入力判定部により判定されたとき、
    前記実行部は、表示装置に表示されている情報をフリックする処理を実行させる、請求項10に記載の情報処理装置。
  12. 前記操作入力判定部が、グループ化処理部により区分された前記グループの動き情報より、反対向きに移動するグループがあると判定したとき、
    前記実行部は、前記反対向きに移動するグループの動き情報に応じて、表示装置に表示されている情報のサイズを変更する処理を実行する、請求項2に記載の情報処理装置。
  13. 前記位置検出部は、接触領域に対する操作体の接触位置を検出する、請求項1に記載の情報処理装置。
  14. 前記位置検出部は、接触領域に対する操作体の近接位置を検出する、請求項1に記載の情報処理装置。
  15. 前記位置検出部は、ユーザが意図的に操作入力する際に意図せず操作体を検出する可能性のある位置に設けられる、請求項1に記載の情報処理装置。
  16. 検出領域における操作体の位置を検出するステップと、
    前記操作体の位置情報に基づいて、検出されたすべての操作体の移動速度を算出するステップと、
    算出された前記操作体の移動速度に基づいて、入力された操作入力を判定するステップと、
    入力された操作入力に基づいて、所定の処理を実行するステップと、
    を含む、情報処理方法。
  17. コンピュータを、検出領域における操作体の位置を取得する位置取得部と、前記操作体の位置情報に基づいて、前記位置取得部により取得されたすべての操作体の移動速度を算出する速度算出部と、前記速度算出部により算出された操作体の移動速度に基づいて、入力された操作入力を判定する操作入力判定部と、入力された操作入力に基づいて、所定の処理を実行する実行処理部と、を備える、情報処理装置として機能させる、コンピュータプログラム。
JP2011084127A 2011-04-06 2011-04-06 情報処理装置、情報処理方法およびコンピュータプログラム Active JP5716502B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP2011084127A JP5716502B2 (ja) 2011-04-06 2011-04-06 情報処理装置、情報処理方法およびコンピュータプログラム
EP12161558.7A EP2508974A3 (en) 2011-04-06 2012-03-27 Information processing apparatus, information processing method, and computer-readable storage medium
US13/433,869 US8878800B2 (en) 2011-04-06 2012-03-29 Information processing apparatus, information processing method, and computer-readable storage medium
KR1020120032156A KR20120114163A (ko) 2011-04-06 2012-03-29 정보 처리 장치, 정보 처리 방법 및 컴퓨터 판독가능 저장 매체
CN201220130265XU CN202870797U (zh) 2011-04-06 2012-03-30 信息处理设备
BRBR102012007381-1A BR102012007381A2 (pt) 2011-04-06 2012-03-30 aparelho, mÉtodo, e, meio de armazenamento legÍvel por computador
RU2012112466/08A RU2012112466A (ru) 2011-04-06 2012-03-30 Устройство обработки информации, способ обработки информации и считываемый компьютером носитель информации
CN2012100913010A CN102736784A (zh) 2011-04-06 2012-03-30 信息处理设备、信息处理方法及计算机可读存储介质
TW101111520A TW201243671A (en) 2011-04-06 2012-03-30 Information processing apparatus, information processing method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011084127A JP5716502B2 (ja) 2011-04-06 2011-04-06 情報処理装置、情報処理方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2012221072A true JP2012221072A (ja) 2012-11-12
JP5716502B2 JP5716502B2 (ja) 2015-05-13

Family

ID=46021999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011084127A Active JP5716502B2 (ja) 2011-04-06 2011-04-06 情報処理装置、情報処理方法およびコンピュータプログラム

Country Status (8)

Country Link
US (1) US8878800B2 (ja)
EP (1) EP2508974A3 (ja)
JP (1) JP5716502B2 (ja)
KR (1) KR20120114163A (ja)
CN (2) CN102736784A (ja)
BR (1) BR102012007381A2 (ja)
RU (1) RU2012112466A (ja)
TW (1) TW201243671A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015130171A (ja) * 2013-12-30 2015-07-16 ▲ホア▼▲ウェイ▼技術有限公司 多端末共同に基づいてジェスチャーを認識するための方法、デバイス、およびシステム
JP2016066254A (ja) * 2014-09-25 2016-04-28 シャープ株式会社 タッチ検出装置を備えた電子装置
JP2016515742A (ja) * 2013-04-15 2016-05-30 クアルコム,インコーポレイテッド ジェスチャタッチジオメトリのid追跡
US9857878B2 (en) 2014-12-26 2018-01-02 Samsung Electronics Co., Ltd. Method and apparatus for processing gesture input based on elliptical arc and rotation direction that corresponds to gesture input

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8870950B2 (en) 2009-12-08 2014-10-28 Mitral Tech Ltd. Rotation-based anchoring of an implant
JP5716502B2 (ja) * 2011-04-06 2015-05-13 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US10353566B2 (en) * 2011-09-09 2019-07-16 Microsoft Technology Licensing, Llc Semantic zoom animations
US9223138B2 (en) 2011-12-23 2015-12-29 Microsoft Technology Licensing, Llc Pixel opacity for augmented reality
US9606586B2 (en) 2012-01-23 2017-03-28 Microsoft Technology Licensing, Llc Heat transfer device
US9297996B2 (en) 2012-02-15 2016-03-29 Microsoft Technology Licensing, Llc Laser illumination scanning
US9726887B2 (en) 2012-02-15 2017-08-08 Microsoft Technology Licensing, Llc Imaging structure color conversion
US9779643B2 (en) 2012-02-15 2017-10-03 Microsoft Technology Licensing, Llc Imaging structure emitter configurations
US9368546B2 (en) 2012-02-15 2016-06-14 Microsoft Technology Licensing, Llc Imaging structure with embedded light sources
US9578318B2 (en) 2012-03-14 2017-02-21 Microsoft Technology Licensing, Llc Imaging structure emitter calibration
US11068049B2 (en) * 2012-03-23 2021-07-20 Microsoft Technology Licensing, Llc Light guide display and field of view
US9558590B2 (en) 2012-03-28 2017-01-31 Microsoft Technology Licensing, Llc Augmented reality light guide display
US10191515B2 (en) 2012-03-28 2019-01-29 Microsoft Technology Licensing, Llc Mobile device light guide display
US9717981B2 (en) 2012-04-05 2017-08-01 Microsoft Technology Licensing, Llc Augmented reality and physical games
US20130307790A1 (en) * 2012-05-17 2013-11-21 Nokia Corporation Methods And Apparatus For Device Control
US10502876B2 (en) 2012-05-22 2019-12-10 Microsoft Technology Licensing, Llc Waveguide optics focus elements
US8989535B2 (en) 2012-06-04 2015-03-24 Microsoft Technology Licensing, Llc Multiple waveguide imaging structure
CN104321721B (zh) * 2012-06-28 2018-01-19 英特尔公司 薄屏框架平板设备
US9632539B2 (en) * 2012-10-16 2017-04-25 At&T Intellectual Property I, L.P Automatic shape adjustment of flexible display
US10192358B2 (en) 2012-12-20 2019-01-29 Microsoft Technology Licensing, Llc Auto-stereoscopic augmented reality display
CN103970328B (zh) * 2013-02-05 2016-12-28 株式会社理光 触摸式或非触摸式的多输入点控制指令检测方法和装置
JP5984722B2 (ja) * 2013-03-22 2016-09-06 シャープ株式会社 情報処理装置
US9395072B2 (en) * 2013-11-13 2016-07-19 Industrial Technology Research Institute Illumination device
JP6062351B2 (ja) * 2013-11-28 2017-01-18 京セラ株式会社 電子機器
US9304235B2 (en) 2014-07-30 2016-04-05 Microsoft Technology Licensing, Llc Microfabrication
US10678412B2 (en) 2014-07-31 2020-06-09 Microsoft Technology Licensing, Llc Dynamic joint dividers for application windows
US10254942B2 (en) 2014-07-31 2019-04-09 Microsoft Technology Licensing, Llc Adaptive sizing and positioning of application windows
US10592080B2 (en) 2014-07-31 2020-03-17 Microsoft Technology Licensing, Llc Assisted presentation of application windows
US20160139723A1 (en) * 2014-11-18 2016-05-19 Sharp Kabushiki Kaisha User interface with touch sensor
US11086216B2 (en) 2015-02-09 2021-08-10 Microsoft Technology Licensing, Llc Generating electronic components
US9535253B2 (en) 2015-02-09 2017-01-03 Microsoft Technology Licensing, Llc Display system
US9372347B1 (en) 2015-02-09 2016-06-21 Microsoft Technology Licensing, Llc Display system
US10317677B2 (en) 2015-02-09 2019-06-11 Microsoft Technology Licensing, Llc Display system
US10018844B2 (en) 2015-02-09 2018-07-10 Microsoft Technology Licensing, Llc Wearable image display system
US9423360B1 (en) 2015-02-09 2016-08-23 Microsoft Technology Licensing, Llc Optical components
US9429692B1 (en) 2015-02-09 2016-08-30 Microsoft Technology Licensing, Llc Optical components
US9827209B2 (en) 2015-02-09 2017-11-28 Microsoft Technology Licensing, Llc Display system
US9513480B2 (en) 2015-02-09 2016-12-06 Microsoft Technology Licensing, Llc Waveguide
JP5993511B1 (ja) * 2015-10-15 2016-09-14 株式会社東海理化電機製作所 操作装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005082086A (ja) * 2003-09-10 2005-03-31 Fujitsu Ten Ltd 情報端末における入力装置
JP2007184008A (ja) * 1998-01-26 2007-07-19 Wayne Westerman 手操作入力を統合する方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8479122B2 (en) * 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US20070177804A1 (en) * 2006-01-30 2007-08-02 Apple Computer, Inc. Multi-touch gesture dictionary
JP4557058B2 (ja) 2007-12-07 2010-10-06 ソニー株式会社 情報表示端末、情報表示方法、およびプログラム
JP2009157508A (ja) 2007-12-25 2009-07-16 Toyota Central R&D Labs Inc 運転支援装置及び警告情報伝達装置
WO2010029491A2 (en) * 2008-09-12 2010-03-18 Koninklijke Philips Electronics N.V. Display apparatus for processing touch events
JP2010086230A (ja) * 2008-09-30 2010-04-15 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2010108061A (ja) 2008-10-28 2010-05-13 Sony Corp 情報処理装置、情報処理方法および情報処理プログラム
US8427440B2 (en) * 2009-05-05 2013-04-23 Microsoft Corporation Contact grouping and gesture recognition for surface computing
JP5469424B2 (ja) 2009-10-14 2014-04-16 シロキ工業株式会社 車両のドアフレーム製造方法
JP5716502B2 (ja) * 2011-04-06 2015-05-13 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007184008A (ja) * 1998-01-26 2007-07-19 Wayne Westerman 手操作入力を統合する方法
JP2005082086A (ja) * 2003-09-10 2005-03-31 Fujitsu Ten Ltd 情報端末における入力装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016515742A (ja) * 2013-04-15 2016-05-30 クアルコム,インコーポレイテッド ジェスチャタッチジオメトリのid追跡
JP2015130171A (ja) * 2013-12-30 2015-07-16 ▲ホア▼▲ウェイ▼技術有限公司 多端末共同に基づいてジェスチャーを認識するための方法、デバイス、およびシステム
US9817447B2 (en) 2013-12-30 2017-11-14 Huawei Technologies Co., Ltd. Method, device, and system for recognizing gesture based on multi-terminal collaboration
JP2016066254A (ja) * 2014-09-25 2016-04-28 シャープ株式会社 タッチ検出装置を備えた電子装置
US9857878B2 (en) 2014-12-26 2018-01-02 Samsung Electronics Co., Ltd. Method and apparatus for processing gesture input based on elliptical arc and rotation direction that corresponds to gesture input

Also Published As

Publication number Publication date
US20120256963A1 (en) 2012-10-11
KR20120114163A (ko) 2012-10-16
EP2508974A2 (en) 2012-10-10
JP5716502B2 (ja) 2015-05-13
CN102736784A (zh) 2012-10-17
TW201243671A (en) 2012-11-01
RU2012112466A (ru) 2013-10-27
BR102012007381A2 (pt) 2013-06-04
US8878800B2 (en) 2014-11-04
CN202870797U (zh) 2013-04-10
EP2508974A3 (en) 2016-01-27

Similar Documents

Publication Publication Date Title
JP5716502B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP5716503B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
EP1892605B1 (en) Apparatus, method, and medium of sensing movement of multi-touch point and mobile apparatus using the same
JP5779923B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
EP2426581A2 (en) Information processing device, information processing method, and computer program
US9201587B2 (en) Portable device and operation method thereof
JP6410537B2 (ja) 情報処理装置、その制御方法、プログラム、及び記憶媒体
US20120299848A1 (en) Information processing device, display control method, and program
JP6004716B2 (ja) 情報処理装置およびその制御方法、コンピュータプログラム
US20140160054A1 (en) Anchor-drag touch symbol recognition
US10222195B2 (en) Information processing apparatus, method, program, and recording medium
JP6253284B2 (ja) 情報処理装置およびその制御方法、プログラム、記録媒体
JP2012058920A (ja) 情報処理装置、情報処理方法およびプログラム
EP3008556B1 (en) Disambiguation of indirect input
JP5477108B2 (ja) 情報処理装置及びその制御方法並びにプログラム
TW201528114A (zh) 電子裝置及其觸控系統、觸控方法
KR20140070264A (ko) 터치 스크린 디스플레이 입력을 통한 객체 스크롤 방법 및 장치
KR101546966B1 (ko) 제스처 판단 방법 및 접촉 감지 방법
WO2016017096A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2024066194A (ja) 制御装置および制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140220

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141023

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150302

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250