JP2010176330A - 情報処理装置、及び表示制御方法 - Google Patents

情報処理装置、及び表示制御方法 Download PDF

Info

Publication number
JP2010176330A
JP2010176330A JP2009017193A JP2009017193A JP2010176330A JP 2010176330 A JP2010176330 A JP 2010176330A JP 2009017193 A JP2009017193 A JP 2009017193A JP 2009017193 A JP2009017193 A JP 2009017193A JP 2010176330 A JP2010176330 A JP 2010176330A
Authority
JP
Japan
Prior art keywords
unit
display
reference position
determination unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009017193A
Other languages
English (en)
Inventor
Tetsuo Ikeda
哲男 池田
Tatsu Aoyama
龍 青山
Takehiko Tsurumi
武彦 鶴見
Shoichiro Moriya
松一郎 守屋
Fumitada Honma
文規 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009017193A priority Critical patent/JP2010176330A/ja
Priority to EP09252732.4A priority patent/EP2214089B1/en
Priority to US12/693,958 priority patent/US8711182B2/en
Priority to CN201010105314A priority patent/CN101859221A/zh
Publication of JP2010176330A publication Critical patent/JP2010176330A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

【課題】シームレスな一連の操作の中で基準位置を明確に指定して表示変更操作を行うことが可能な情報処理装置を提供すること。
【解決手段】オブジェクトが表示される表示部と、前記表示部の表面に接触又は近接された操作手段の位置を検知する位置検知部と、複数の操作手段が前記表示部に接触又は近接された際に、前記位置検知部で最初に検知された操作手段の位置を基準位置に決定する基準位置決定部と、前記位置検知部でN番目(N≧2)に検知された操作手段の位置が移動する方向に応じて当該方向に対応付けられた所定の表示変更動作を特定する表示変更動作特定部と、前記基準位置決定部で決定された基準位置を基準にして前記表示変更動作特定部で特定された表示変更動作を前記オブジェクトに対して実行する表示制御部と、を備える、情報処理装置が提供される。
【選択図】図4

Description

本発明は、情報処理装置、及び表示制御方法に関する。
近年、小型の電子機器や自動取引装置には、ユーザが表示画面に直接接触して画面内に表示されたオブジェクトを操作するためのタッチパネルが搭載されていることが多い。タッチパネルを用いることにより、直感的な操作感が実現され、キーボードやキーパッド等の操作に不慣れなユーザでも容易に操作が行えるという利点が得られる。最近の電子機器には、ユーザがタッチパネルを操作することにより、画面内に表示された表示オブジェクトが移動したり、この移動操作により所定の処理が実行されたりするものもある。
例えば、下記の特許文献1には、入力手段にタッチパネルを採用したナビゲーション装置に関する技術が開示されている。同技術は、2本の指をタッチパネルに接触し、1本の指を直線的に移動させることで、タッチパネルに表示された地図の拡大・縮小操作を行えるようにするというものである。特に、同技術は、2本の指を押し広げて指定される2点間の距離に応じて拡大率を変化させる点に特徴がある。
特開2007−279638号公報
しかしながら、2本の指を同時に動かすと、指の間隔を微調整するのが難しい。また、拡大又は縮小の基準となる位置が分かりにくい。例えば、基準となる位置を指定するために基準点を指等でタップしてから拡大操作を行う方法も考えられるが、タップ操作の分だけ操作工程が増えてしまう。なお、拡大操作や縮小操作に限らず、基準となる位置に基づいて表示を変化させるユーザ操作についても同様の問題が発生する。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、表示変更の基準となる位置が分かりやすく、少ない操作工程で表示の変更操作を行うことが可能な、新規かつ改良された情報処理装置、及び表示制御方法を提供することにある。
上記課題を解決するために、本発明のある観点によれば、オブジェクトが表示される表示部と、前記表示部の表面に接触又は近接された操作手段の位置を検知する位置検知部と、複数の操作手段が前記表示部に接触又は近接された際に、前記位置検知部で最初に検知された操作手段の位置を基準位置に決定する基準位置決定部と、前記位置検知部でN番目(N≧2)に検知された操作手段の位置が移動する方向に応じて当該方向に対応付けられた所定の表示変更動作を特定する表示変更動作特定部と、前記基準位置決定部で決定された基準位置を基準にして前記表示変更動作特定部で特定された表示変更動作を前記オブジェクトに対して実行する表示制御部と、を備える、情報処理装置が提供される。
また、前記表示制御部は、前記基準位置決定部で基準位置が決定された際に当該基準位置を示す基準指標を前記表示部に表示させる基準指標表示部と、前記表示変更動作特定部で所定の表示変更動作が特定された際に当該所定の表示変更動作の種類及び当該所定の表示変更動作による変更量を示す変更指標を前記表示部に表示させる変更指標表示部と、を含むように構成されていてもよい。
また、上記の情報処理装置は、前記位置検知部で位置が検知された操作手段の種類を検知する種類検知部をさらに備えていてもよい。さらに、前記種類検知部で互いに異なる種類の操作手段が検知された場合、前記基準位置決定部は、前記位置検知部で検知された第1種類の操作手段の位置を基準位置に決定するように構成されていてもよい。この場合、前記表示変更動作特定部は、前記位置検知部で検知された前記第1種類とは異なる第2種類の操作手段の位置が移動する方向に応じて当該方向に対応付けられた所定の表示変更動作を特定するように構成される。
また、前記表示制御部は、前記N番目に検知された操作手段が拡大又は縮小動作に対応付けられた方向に移動した場合、前記基準位置決定部で決定された基準位置を中心にして前記オブジェクトを拡大又は縮小させるように構成されていてもよい。
また、前記表示制御部は、前記N番目に検知された操作手段が回転動作に対応付けられた方向に移動した場合、前記基準位置決定部で決定された基準位置を中心にして前記オブジェクトを回転させるように構成されていてもよい。
また、前記表示部は、前記オブジェクトが表示される表示領域、及び当該表示画面の外側に設けられた前記オブジェクトが表示されない非表示領域を有していてもよい。この場合、前記基準位置決定部は、前記操作手段の位置が前記表示領域に含まれる場合に当該操作手段の位置を基準位置に決定する。そして、前記表示変更動作特定部は、前記操作手段の位置が前記非表示領域に含まれる場合に当該操作手段が移動する方向に応じて前記所定の表示変更動作を特定するように構成される。
また、また、上記課題を解決するために、本発明の別の観点によれば、オブジェクトが表示される表示部の表面に接触又は近接された操作手段の位置を検知する位置検知ステップと、複数の操作手段が前記表示部に接触又は近接された際に、前記位置検知ステップで最初に検知された操作手段の位置を基準位置に決定する基準位置決定ステップと、前記位置検知ステップでN番目(N≧2)に検知された操作手段の位置が移動する方向に応じて当該方向に対応付けられた所定の表示変更動作を特定する表示変更動作特定ステップと、前記基準位置決定ステップで決定された基準位置を基準にして前記表示変更動作特定ステップで特定された表示変更動作を前記オブジェクトに対して実行する表示制御ステップと、を含む、表示制御方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、上記の情報処理装置が有する各構成要素の機能をコンピュータに実現させることが可能なプログラムが提供されうる。さらに、上記課題を解決するために、本発明の別の観点によれば、上記のプログラムが記録されたコンピュータにより読み取り可能な記録媒体が提供されうる。
以上説明したように本発明によれば、表示変更の基準となる位置が分かりやすく、少ない操作工程で表示の変更操作を行うことが可能な、新規かつ改良された情報処理装置、及び表示制御方法が提供される。
拡大操作方法の一例を示す説明図である。 拡大操作方法の一例を示す説明図である。 本発明の一実施形態に係る表示制御方法を実現するためのシステム構成、及び、一連の操作又は処理の流れを概略的に説明するための説明図である。 同実施形態に係る情報処理装置の機能構成例を示す説明図である。 同実施形態に係る拡大操作方法の一例を示す説明図である。 同実施形態に係る拡大操作方法の一例、及び拡大操作の補助表示オブジェクトを表示する方法を示す説明図である。 同実施形態に係る表示制御方法の全体的な流れを示す説明図である。 同実施形態の一変形例(変形例1)に係る情報処理装置の機能構成例を示す説明図である。 同実施形態の一変形例(変形例1)に係る拡大操作方法の一例を示す説明図である。 同実施形態の一変形例(変形例1)に係る表示制御方法の全体的な流れを示す説明図である。 同実施形態の一変形例(変形例2)に係る情報処理装置の機能構成例を示す説明図である。 同実施形態の一変形例(変形例2)に係る表示制御方法の全体的な流れを示す説明図である。 同実施形態に係る情報処理装置のハードウェア構成の一例を示す説明図である。
以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
[説明の流れについて]
ここで、以下に記載する本発明の実施形態に関する説明の流れについて簡単に述べる。まず、図1、図2を参照しながら、表示設定の変更・調整方法の一例として拡大操作方法について説明する。次いで、図3を参照しながら、本発明の一実施形態に係る情報処理装置100、200、300のアーキティクチャの概要について説明する。
次いで、図4を参照しながら、同実施形態に係る情報処理装置100の機能構成について詳細に説明する。この中で、図5、図6を参照しながら、同実施形態に係る操作入力方法、及び表示制御方法について説明する。次いで、図7を参照しながら、情報処理装置100による一連の処理の流れについて説明する。
次いで、図8を参照しながら、同実施形態の一変形例(変形例1)に係る情報処理装置200の機能構成について詳細に説明する。この中で、図9を参照しながら、同実施形態に係る操作入力方法、及び表示制御方法について説明する。次いで、図10を参照しながら、情報処理装置200による一連の処理の流れについて説明する。
次いで、図11を参照しながら、同実施形態の一変形例(変形例2)に係る情報処理装置300の機能構成について詳細に説明する。次いで、図12を参照しながら、情報処理装置300による一連の処理の流れについて説明する。次いで、図13を参照しながら、情報処理装置100、200、300のハードウェア構成について説明する。最後に、同実施形態の技術的思想について纏め、当該技術的思想から得られる作用効果について簡単に説明する。
(説明項目)
1:一般的な拡大操作方法について
2:実施形態
2−1:アーキティクチャの概要
2−2:情報処理装置100の構成
2−2−1:機能構成
2−2−2:処理フロー
2−3:(変形例1)情報処理装置200の構成
2−3−1:機能構成
2−3−2:処理フロー
2−4:(変形例2)情報処理装置300の構成
2−4−1:機能構成
2−4−2:処理フロー
2−5:ハードウェア構成
3:まとめ
<1:一般的な拡大操作方法について>
まず、本発明の実施形態について詳細に説明するに先立ち、図1、図2を参照しながら、一般的な情報処理装置10における拡大操作方法について簡単に説明する。図1は、地図アプリケーションにおける拡大操作方法の一例を示す説明図である。一方、図2は、タッチパネル12が搭載された情報処理装置10における拡大操作方法の一例を示す説明図である。
まず、図1を参照する。例えば、カーナビゲーションシステムや携帯情報端末等には、多くの場合、ユーザの現在位置を表示したり、ユーザが所望する地域の地図を表示したりする地図アプリケーションが搭載されている。こうした地図アプリケーションを利用する場面において、ユーザは、地図の縮尺を変更しながら自分の位置を確認したり、目的地の建造物等を確認したりする。そのため、頻繁に拡大・縮小操作が行われる。多くの地図アプリケーションにおいては、拡大・縮小操作を行うための操作オブジェクトが画面上に設けられている。ユーザは、画面上に設けられた操作オブジェクトを操作して拡大・縮小操作を行うか、或いは、マウスホイール等の操作手段を用いて拡大・縮小操作を行う。
ここでは典型的な例として地図アプリケーションの操作を例に挙げたが、ウェブブラウザを用いて閲覧しているウェブサイトの表示を拡大・縮小したり、画面上に表示された写真を拡大・縮小したりする操作についても同様である。例えば、図2に示すような情報処理装置10においてタッチパネル12に表示された画像を拡大・縮小する操作について考えてみる。図2に示す情報処理装置10には、出力(表示)デバイスの機能と入力デバイスの機能とを兼ね備えたタッチパネル12が搭載されている。そのため、ユーザは、タッチパネル12を指14でタップしたり、ドラッグしたりすることで情報を入力することができる。なお、指14は操作手段の一例である。また、2本の指を区別するために指14A、14Bと表記することがある。
図2に例示した情報処理装置10は、ユーザにより2本の指14A、14Bでタッチされ、閉じていた2本の指14A、14Bを開く動作(以下、ピンチアウト)が行われた場合にタッチパネル12に表示された画像を拡大させるものである。つまり、指14Aが操作方向(A)に、指14Bが操作方向(B)に向けて移動すると、タッチパネル12に表示された画像が拡大される。逆に、情報処理装置10は、ユーザにより2本の指14A、14Bでタッチされ、開いていた2本の指14A、14Bを閉じる動作(以下、ピンチイン)が行われた場合にタッチパネル12に表示された画像を縮小させる。このように、2本の指14A、14Bの開閉に応じて画像の拡大・縮小操作が実現されるため、ユーザは、直感的に画像の拡大・縮小操作を行うことができる。
しかしながら、図2のように、2本の指14A、14Bを用いて拡大・縮小操作を行う場合、2本の指14A、14Bを同時に動作させるため、指14A、14Bの間隔で決まる拡大率の微調整が難しい。また、2本の指14A、14Bが動いているため、拡大・縮小の基準となる位置がユーザに分かりにくい。ここでは拡大・縮小操作を例に挙げたが、例えば、画像の回転操作等を行う場合にも同様の問題が発生する。後述する実施形態に係る技術は、こうした問題を解決する手段を提供するものである。
<2:実施形態>
本発明の一実施形態について説明する。本実施形態は、複数の操作手段を用いて画像等の表示オブジェクトを拡大したり、縮小したり、回転させたりするための操作方法に関する。特に、本実施形態は、操作工程を増やさずに、拡大、縮小、回転等の基準となる位置を簡単に指定することが可能な操作体系を提案するものである。以下、こうした操作体系を実現することが可能な技術について詳細に説明する。
[2−1:アーキティクチャの概要]
まず、図3を参照しながら、本実施形態に係る技術を実現するための手段(後述する情報処理装置100、200、300に相当)に関するアーキティクチャの概要について説明する。なお、ここでは当該手段のことを単にシステムと呼ぶことにする。
図3に示すように、上記のシステムは、入力デバイスQ10、ジェスチャー処理部Q12、アプリケーションQ14、及び出力デバイスQ16を有する。入力デバイスQ10は、指やスタイラスペン等の操作手段でタッチされた位置を検知する手段である。入力デバイスQ10の機能は、例えば、タッチパネルやタッチパッド等により実現される。入力デバイスQ10を介して入力されたタッチ位置の情報(以下、タッチ位置)は、ジェスチャー処理部Q12に入力される。また、ユーザが操作手段をドラッグさせた場合、ジェスチャー処理部Q12には、操作手段の移動軌跡の情報(以下、移動軌跡)が入力される。
ジェスチャー処理部Q12は、入力デバイスQ10を介して入力されたタッチ位置や移動軌跡に対応付けられた処理の種類を判定する。例えば、画面上に表示されたボタンの位置とタッチ位置とが一致している場合、ジェスチャー処理部Q12は、そのボタンに対応付けられた所定の処理を特定する。また、移動軌跡と所定のジェスチャー形状とが一致している場合、ジェスチャー処理部Q12は、そのジェスチャーに対応付けられた処理の処理を特定する。このようにしてジェスチャー処理部Q12により特定された処理の種類は、アプリケーションQ14に通知される。
アプリケーションQ14は、ジェスチャー処理部Q12で特定された種類の処理を実行する手段である。従って、ジェスチャー処理部Q12から処理の種類が通知されると、アプリケーションQ14は、通知された種類の処理を実行する。例えば、ジェスチャー処理部Q12により画像の拡大処理が特定されると、アプリケーションQ14は、ジェスチャー処理部Q12から受けた通知情報に基づいて画像の拡大処理を実行する。そして、アプリケーションQ14により拡大処理が施された画像のデータは、出力デバイスQ16に入力される。
出力デバイスQ16は、例えば、タッチパネルやディスプレイ等である。従って、アプリケーションQ14から入力された拡大画像は、出力デバイスQ16に表示され、ユーザに提示される。なお、入力デバイスQ10、及び出力デバイスQ16が共にタッチパネルの場合、入力デバイスQ10と出力デバイスQ16とは一体に形成される方が好ましい。以上説明したような構成及び処理の流れにより、表示設定の変更動作が実行され、タッチパネル等を用いた操作体系が実現される。但し、ここで説明したのはアーキティクチャの概要に過ぎず、本実施形態に係る特徴的な操作体系を実現するためには、これら各構成要素の機能に工夫を凝らす必要がある。以下、この点について詳細に説明する。
[2−2:情報処理装置100の構成]
ここでは、本実施形態に係る特徴的な操作体系を実現することが可能な情報処理装置100の構成について説明する。まず、図4を参照しながら、本実施形態に係る情報処理装置100の機能構成について説明する。この中で、図5、図6を参照しながら、本実施形態に係る特徴的な操作体系の具体例についても説明する。次いで、図7を参照しながら、情報処理装置100による全体的な処理の流れについて説明する。
(2−2−1:機能構成)
まず、図4を参照する。図4に示すように、情報処理装置100は、位置検知部102と、基準位置決定部104と、操作判別部106と、操作量決定部108と、表示制御部110と、表示部114とを有する。また、表示制御部110には、指標表示部112が設けられている。さらに、位置検知部102、及び表示部114は、タッチパネルを構成する。このタッチパネルは、上記の入力デバイスQ10、出力デバイスQ16に相当する。また、その他の構成要素は、上記のジェスチャー処理部Q12、アプリケーションQ14に相当する。
なお、上記の操作判別部106は、表示変更動作特定部の一例である。また、上記の指標表示部112は、基準指標表示部、変更指標表示部の一例である。
(位置検知部102)
まず、ユーザにより操作が行われると、位置検知部102は、操作手段の位置を検知する。ここで言う操作とは、例えば、指やスタイラスペン等の操作手段をタッチパネルに近接又は接触(以下、タッチ)したり、タッチした位置を移動したりすることである。なお、本実施形態においては、複数の操作手段を用いて操作が行われることが前提である。そのため、複数の操作手段を用いて操作が行われた場合であっても、位置検知部102は、各操作手段の位置を検出することができるものとする。位置検知部102で検知された各操作手段の位置を示す情報(以下、位置情報)は、基準位置決定部104、操作判別部106、操作量決定部108に入力される。
(基準位置決定部104)
上記の通り、基準位置決定部104には、位置検知部102から位置情報が入力される。位置検知部102から位置情報が入力されると、基準位置決定部104は、所定の処理を実行する際の基準となる画面上の位置(以下、基準位置)を決定する。以下では、説明の都合上、所定の処理として画像の拡大処理を例に挙げ、この例に沿って説明することにする。この場合、基準位置決定部104は、位置検知部102から入力された位置情報に基づいて拡大中心となる画面上の位置を決定する。例えば、基準位置決定部104は、ユーザ操作の最初にタッチした操作手段(以下、第1操作手段)の位置を基準位置に決定する。基準位置決定部104により決定された基準位置の情報(以下、基準位置情報)は、操作判別部106、表示制御部110に入力される。
(操作判別部106)
上記の通り、操作判別部106には、位置検知部102から位置情報が入力され、基準位置決定部104から基準位置情報が入力される。位置情報及び基準位置情報が入力されると、操作判別部106は、基準位置情報を用いて上記の第1操作手段とは異なる操作手段(以下、第2操作手段)の位置情報を判別し、当該位置情報に基づいて第2操作手段の移動方向を特定する。このとき、第2操作手段の位置情報を判別するために用いる情報を操作量決定部108に入力する。
操作判別部106は、第2操作手段の移動方法と所定の処理とを対応付けるテーブルを保持しており、位置情報から特定される第2操作手段の移動方向に基づいて当該移動方向に対応する所定の処理を特定する。そして、操作判別部106により特定された処理の種別(以下、操作種別)を示す情報(以下、操作種別情報)は、表示制御部110に入力される。例えば、位置検知部102から入力された位置情報に基づく第2操作手段の移動方向が画像の拡大処理に対応する場合、操作判別部106は、操作種別を画像の拡大処理に決定し、画像の拡大処理を示す操作種別情報を表示制御部110に入力する。
(操作量決定部108)
上記の通り、操作量決定部108には、位置検知部102から位置情報が入力される。また、操作量決定部108には、操作判別部106から第2操作手段の位置情報を判別するための情報が入力される。そこで、操作量決定部108は、操作判別部106から入力された情報に基づいて第2操作手段の位置情報を判別し、第2操作手段の移動量を算出する。そして、操作量決定部108は、第2操作手段の移動量に応じた操作量を決定する。例えば、操作種別が画像の拡大処理である場合、ここで言う操作量は拡大率になる。なお、移動量と操作量との関係はユーザにより任意に設定されうる。また、操作量決定部108により決定された操作量は、表示制御部110に入力される。
(表示制御部110、表示部114)
上記の通り、表示制御部110には、基準位置決定部104から基準位置情報が入力され、操作判別部106から操作種別情報が入力され、操作量決定部108から操作量が入力される。そこで、表示制御部110は、基準位置情報が示す基準位置を基準にし、操作種別情報が示す操作種別の処理を操作量の分だけ実行する。例えば、操作種別が画像の拡大処理の場合を考えると、表示制御部110は、基準位置情報が示す基準位置を拡大中心に設定し、操作量が示す拡大率になるように表示部114に画像を拡大表示させる。その結果、ユーザが第1操作手段で指定した位置を基準にして、第2操作手段の移動量に応じた拡大率で画像が拡大されて表示部114に表示される。
(具体例)
ここで、図5を参照しながら、上記の情報処理装置100により実現される操作体系の具体例について説明する。図5には、地図画像が表示されたタッチパネルと、操作手段の一例として指14A、14Bとが示されている。但し、指14Aが最初にタッチされ、指14Bが指14Aの後にタッチされたものとする。ここでは、タッチパネルに表示された地図画像が拡大操作される際に上記の情報処理装置100において実行される一連の処理について具体的に説明する。なお、ユーザ操作自体は、図5に示すように、指14Aのタップ操作による基準位置の指定ステップ(S1)と、指14Bのドラッグ操作による拡大率の調整ステップ(S2)とにより構成される。
まず、指14Aがタップされると、位置検知部102により指14Aの位置が検知される。位置検知部102により検知された指14Aの位置情報は、基準位置決定部104、操作判別部106、操作量決定部108に入力される。なお、指14Aは、ユーザ操作の最初に検知されたもの(第1操作手段)である。そのため、位置検知部102により検知された指14Aの位置情報は、基準位置決定部104において利用される。上記の通り、基準位置決定部104は、指14Aのタップ位置を基準位置に決定し、その基準位置を示す基準位置情報を表示制御部110に入力する。
次いで、指14Bがドラッグされると、位置検知部102により指14Bの位置が検知される。但し、位置検知部102により時系列で位置が検知される。つまり、位置検知部102において実質的に移動軌跡が検知される。そして、位置検知部102により検知された指14Bの位置情報は、基準位置決定部104、操作判別部106、操作量決定部108に入力される。なお、指14Bは、指14Aの後に検知されたもの(第2操作手段)である。そのため、位置検知部102により検知された指14Bの位置情報は、操作判別部106、操作量決定部108において利用される。
上記の通り、操作判別部106は、ドラッグされた指14Bの移動方向を特定し、その移動方向に対応する所定の処理(地図画像の拡大処理)を選択する。例えば、図5に示すように、画像の拡大処理が上下方向のドラッグ操作に対応付けられている。この場合、操作判別部106は、指14Bの位置情報から上下方向の移動を検知し、画像の拡大処理を示す操作種別情報を表示制御部110に入力する。一方、操作量決定部108は、指14Bがタッチされた位置から移動後の位置までの距離を算出し、算出した移動量に応じて画像の拡大率を決定する。そして、操作量決定部108は、決定した画像の拡大率を操作量として表示制御部110に入力する。
上記のように、表示制御部110には、指14Aのタッチ位置を示す基準位置情報、指14Bの移動方向に応じて特定された拡大処理を示す操作種別情報、指14Bの移動距離に応じて決定された操作量が入力される。そこで、表示制御部110は、基準位置情報が示す基準位置を拡大中心に設定し、表示部114に表示される地図画像を操作量が示す拡大率で拡大する。このような構成にすることで、ユーザは、一連の拡大操作の中で基準位置を指定することが可能になると共に、拡大率を容易に微調整することができるようになる。その結果、操作性が格段に向上する。
(指標表示部112)
図5には、指14Aのタップ位置、及び指14Bの移動方向を明示するために、説明の都合上、補助的な図形(×が描かれた円、及び両端矢印)が描かれていた。しかし、表示制御部110により、これらの補助的な図形が実際に表示されるように構成されていてもよい。例えば、図6に例示するように、基準位置を示す基準指標G1、及び操作量を示す変更指標G2が表示部114に表示されることで、ユーザは、基準位置、及び操作量を容易に認識できるようになる。基準指標G1、変更指標G2の表示制御は、表示制御部110に設けられた指標表示部112(図4を参照)により実行される。
例えば、指14Aのタッチ位置が基準位置決定部104により基準位置に決定されると、指標表示部112は、表示部114に基準指標G1を表示させる。また、指14Bがタッチされた際に、指標表示部112は、表示部114に変更指標G2を表示させる。例えば、指標表示部112は、変更指標G2として、操作量の大きさ示すスライド式バーオブジェクトを表示し、指14Bの移動に応じてスライダの位置を変更させる。さらに、指標表示部112は、バー上の所定位置に拡大率を表示する。このような構成にすることで、ユーザは、簡単な操作で所望の拡大率を正確に指定することが可能になる。
以上、情報処理装置100の機能構成について詳細に説明した。
(2−2−2:処理フロー)
次に、図7を参照しながら、情報処理装置100による全体的な処理の流れについて説明する。図7は、情報処理装置100による全体的な処理の流れを示す説明図である。
図7に示すように、ユーザ操作が行われると(S102)、位置検知部102によりタッチ位置が検知される(S104)。このとき、指標表示部112によりタッチ位置を明示するための何らかの指標が表示されてもよい。また、複数の操作手段によりタッチされた場合、各操作手段のタッチ位置が位置検知部102により検知され、基準位置決定部104、操作判別部106、操作量決定部108に入力される。
次いで、基準位置決定部104により、最初にタッチされた操作手段(第1操作手段)のタッチ位置が基準位置に決定される(S106)。そして、基準位置決定部104から表示制御部110に基準位置を示す基準位置情報が入力される。次いで、操作判別部106により、次にタッチされた操作手段(第2操作手段)のタッチ位置に基づいて移動方向が特定される(S108)。さらに、操作判別部106により、特定した移動方向に対応する操作種別が判別される(S110)。そして、操作判別部106から表示制御部110に操作種別を示す操作種別情報が入力される。
次いで、操作量決定部108により、第2操作手段の移動量に応じた操作量が決定される(S112)。そして、操作量決定部108から表示制御部110に対し、決定された操作量の情報が入力される。次いで、表示制御部110により、基準位置情報が示す基準位置を基準に、操作種別情報が示す操作種別の操作を入力された操作量の分だけ実行し、表示部114の表示に反映させる(S114)。このように、第1操作手段で基準位置を指定し、第2操作手段の移動に応じて操作種別及び操作量を指定することができるため、一連のシームレスな操作により基準位置に基づく表示操作が実現される。
以上、情報処理装置100による全体的な処理の流れについて説明した。
以上説明したように、本実施形態に係る技術を適用することで、拡大・縮小操作や回転操作のような基準位置に基づく表示変更を行う際に、一連のシームレスな操作の中で基準位置を指定したり、操作量(変更量)を指定したりすることができるようになる。また、複数の操作手段を同時に動かさずに済むため、操作量の微調整が容易にできる。さらに、基準指標G1、変更指標G2を表示させることで、ユーザは、操作量を容易に認識できるようになると共に、第2操作手段の移動に応じて特定された操作種別を容易に認識することが可能になる。その結果、非常に利便性の高い操作体系が実現される。
[2−3:(変形例1)情報処理装置200の構成]
次に、本実施形態の一変形例(変形例1)に係る情報処理装置200の構成について説明する。まず、図8、図9を参照しながら、変形例1に係る情報処理装置200の機能構成について説明する。次いで、図10を参照しながら、情報処理装置200による全体的な処理の流れについて説明する。なお、上記の情報処理装置100と実質的に同一の構成要素については詳細な説明を省略する。
(2−3−1:機能構成)
まず、図8を参照する。図8に示すように、情報処理装置200は、位置検知部102と、基準位置決定部104と、操作判別部106と、操作量決定部108と、表示制御部110と、表示部114と、操作領域判定部202を有する。また、表示制御部110には、指標表示部112が設けられている。さらに、位置検知部102、及び表示部114は、タッチパネルを構成する。このタッチパネルは、上記の入力デバイスQ10、出力デバイスQ16に相当する。また、その他の構成要素は、上記のジェスチャー処理部Q12、アプリケーションQ14に相当する。
なお、上記の操作判別部106は、表示変更動作特定部の一例である。また、上記の指標表示部112は、基準指標表示部、変更指標表示部の一例である。
上記の情報処理装置100との主な相違点は、操作領域判定部202の存在にある。また、上記の情報処理装置100においては、複数の操作手段のうち、最初にタッチされた操作手段が第1操作手段、次にタッチされた操作手段が第2操作手段に決定されていた。しかし、変形例1においては、第1及び第2操作手段の決定処理は、操作領域判定部202により実行される。そのため、基準位置決定部104、操作判別部106、操作量決定部108は、それぞれ第1及び第2操作手段の決定処理を実行しない。以下、これらの相違点を中心に、情報処理装置200の機能構成について説明する。
(位置検知部102)
まず、ユーザにより操作が行われると、位置検知部102は、操作手段の位置を検知する。ここで言う操作とは、例えば、指やスタイラスペン等の操作手段をタッチパネルにタッチしたり、タッチした位置を移動したりすることである。なお、本実施形態においては、複数の操作手段を用いて操作が行われることが前提である。そのため、複数の操作手段を用いて操作が行われた場合であっても、位置検知部102は、各操作手段の位置を検出することができるものとする。位置検知部102で検知された各操作手段の位置を示す位置情報は、操作領域判定部202、基準位置決定部104、操作判別部106、操作量決定部108に入力される。
(操作領域判定部202)
上記の通り、操作領域判定部202には、位置検知部102から位置情報が入力される。位置検知部102から位置情報が入力されると、操作領域判定部202は、入力された位置情報に基づいて複数の操作手段を第1操作手段と第2操作手段とに分ける。ここで、操作領域判定部202による第1及び第2操作手段の判別方法について、図9を参照しながら説明する。図9に示すように、変形例1の表示部114には、表示領域A10と非表示領域A12とが設けられている。
多くの場合、画像等が表示される表示画面には外枠が設けられている。そのため、外枠の部分に位置検知部102のセンサ領域を容易に拡張することができる。例えば、押圧検知センサや静電センサ等のセンサ装置を外枠に別途設けたり、表示画面に設けられたセンサ装置を外枠部分まで延伸させたりすることで、外枠部分にまでセンサ領域を拡張することができる。変形例1においては、センサ領域が外枠部分まで拡張されたタッチパネルが用いられる。そして、表示画面の部分に表示領域A10が設定され、外枠部分に非表示領域A12が設定される。
操作領域判定部202は、位置検知部102から入力された位置情報に基づいてタッチ位置が表示領域A10に含まれるか、非表示領域A12に含まれるかを判定する。そして、操作領域判定部202は、タッチ位置が表示領域A10に含まれる場合、タッチした操作手段を第1操作手段に決定する。また、操作領域判定部202は、タッチ位置が非表示領域A12に含まれる場合、タッチした操作手段を第2操作手段に決定する。そして、操作領域判定部202により決定された第1及び第2操作手段の情報(以下、手段情報)は、基準位置決定部104、操作判別部106、操作量決定部108に入力される。
(基準位置決定部104)
上記の通り、基準位置決定部104には、位置検知部102から位置情報が入力される。また、基準位置決定部104には、操作領域判定部202から手段情報が入力される。位置情報及び手段情報が入力されると、基準位置決定部104は、所定の処理を実行する際の基準となる画面上の基準位置を決定する。例えば、基準位置決定部104は、位置検知部102から入力された位置情報に基づいて拡大中心となる画面上の基準位置を決定する。このとき、基準位置決定部104は、入力された手段情報に基づいて第1操作手段の位置を基準位置に決定する。基準位置決定部104により決定された基準位置の情報(基準位置情報)は、表示制御部110に入力される。
(操作判別部106)
上記の通り、操作判別部106には、位置検知部102から位置情報が入力される。また、操作判別部106には、操作領域判定部202から手段情報が入力される。位置情報及び手段情報が入力されると、操作判別部106は、入力された位置情報及び手段情報に基づいて第2操作手段の移動方向を特定する。例えば、操作判別部106は、第2操作手段の移動方法と所定の処理とを対応付けるテーブルを保持しており、位置情報から特定される第2操作手段の移動方向に基づいて当該移動方向に対応する所定の処理を特定する。操作判別部106により特定された処理の種別(操作種別)を示す操作種別情報は、表示制御部110に入力される。
(操作量決定部108)
上記の通り、操作量決定部108には、位置検知部102から位置情報が入力される。また、操作量決定部108には、操作領域判定部202から手段情報が入力される。そこで、操作量決定部108は、手段情報に基づいて第2操作手段の位置情報を判別し、その位置情報に基づいて第2操作手段の移動量を算出する。そして、操作量決定部108は、第2操作手段の移動量に応じた操作量を決定する。例えば、操作種別が画像の拡大処理である場合、操作量決定部108により拡大率が決定される。そして、操作量決定部108により決定された操作量は、表示制御部110に入力される。
(表示制御部110、表示部114)
上記の通り、表示制御部110には、基準位置決定部104から基準位置情報が入力され、操作判別部106から操作種別情報が入力され、操作量決定部108から操作量が入力される。そこで、表示制御部110は、基準位置情報が示す基準位置を基準にし、操作種別情報が示す操作種別の処理を操作量の分だけ実行する。例えば、操作種別が画像の拡大処理の場合を考えると、表示制御部110は、基準位置情報が示す基準位置を拡大中心に設定し、操作量が示す拡大率になるように表示部114に画像を拡大表示させる。その結果、ユーザが第1操作手段で指定した位置を基準にして、第2操作手段の移動量に応じた拡大率で画像が拡大されて表示部114に表示される。
以上、情報処理装置200の機能構成について詳細に説明した。
(2−3−2:処理フロー)
次に、図10を参照しながら、情報処理装置200による全体的な処理の流れについて説明する。図10は、情報処理装置200による全体的な処理の流れを示す説明図である。
図10に示すように、ユーザ操作が行われると(S202)、位置検知部102によりタッチ位置が検知される(S204)。このとき、指標表示部112によりタッチ位置を明示するための何らかの指標が表示されてもよい。また、複数の操作手段によりタッチされた場合、各操作手段のタッチ位置が位置検知部102により検知され、操作領域判定部202、基準位置決定部104、操作判別部106、操作量決定部108に入力される。
次いで、操作領域判定部202により、表示領域A10にタッチされた操作手段が第1操作手段に決定され、非表示領域A12にタッチされた操作手段が第2操作手段に決定される(S206)。そして、第1及び第2操作手段を特定するための情報(手段情報)が基準位置決定部104、操作判別部106、操作量決定部108に入力される。
次いで、基準位置決定部104により、第1操作手段のタッチ位置が基準位置に決定される(S208)。そして、基準位置決定部104から表示制御部110に基準位置を示す基準位置情報が入力される。次いで、操作判別部106により、第2操作手段のタッチ位置に基づいて移動方向が特定される(S210)。さらに、操作判別部106により、特定した移動方向に対応する操作種別が判別される(S212)。そして、操作判別部106から表示制御部110に操作種別を示す操作種別情報が入力される。
次いで、操作量決定部108により、第2操作手段の移動量に応じた操作量が決定される(S214)。そして、操作量決定部108から表示制御部110に対し、決定された操作量の情報が入力される。次いで、表示制御部110により、基準位置情報が示す基準位置を基準に、操作種別情報が示す操作種別の操作を入力された操作量の分だけ実行し、表示部114の表示に反映させる(S216)。このように、第1操作手段で基準位置を指定し、第2操作手段の移動に応じて操作種別及び操作量を指定することができるため、一連のシームレスな操作により基準位置に基づく表示操作が実現される。
以上、情報処理装置200による全体的な処理の流れについて説明した。
以上説明したように、変形例1に係る技術を適用することで、拡大・縮小操作や回転操作のような基準位置に基づく表示変更を行う際に、一連のシームレスな操作の中で基準位置を指定したり、操作量(変更量)を指定したりすることができるようになる。また、基準位置の指定操作と操作量の指定操作とを操作領域で分けているため、ユーザが操作手段のタッチ順を気にせずに操作できるようになる。その結果、非常に利便性の高い操作体系が実現される。
[2−4:(変形例2)情報処理装置300の構成]
次に、本実施形態の一変形例(変形例2)に係る情報処理装置300の構成について説明する。まず、図11を参照しながら、変形例2に係る情報処理装置300の機能構成について説明する。次いで、図12を参照しながら、情報処理装置300による全体的な処理の流れについて説明する。なお、上記の情報処理装置100と実質的に同一の構成要素については詳細な説明を省略する。
(2−4−1:機能構成)
まず、図11を参照する。図11に示すように、情報処理装置300は、位置検知部102と、基準位置決定部104と、操作判別部106と、操作量決定部108と、表示制御部110と、表示部114と、操作手段判定部302を有する。また、表示制御部110には、指標表示部112が設けられている。さらに、位置検知部102、及び表示部114は、タッチパネルを構成する。このタッチパネルは、上記の入力デバイスQ10、出力デバイスQ16に相当する。また、その他の構成要素は、上記のジェスチャー処理部Q12、アプリケーションQ14に相当する。
なお、上記の操作判別部106は、表示変更動作特定部の一例である。また、上記の指標表示部112は、基準指標表示部、変更指標表示部の一例である。さらに、上記の位置検知部102、操作手段判定部302は、種類検知部の一例である。
上記の情報処理装置100との主な相違点は、操作手段判定部302の存在にある。また、上記の情報処理装置100においては、複数の操作手段のうち、最初にタッチされた操作手段が第1操作手段、次にタッチされた操作手段が第2操作手段に決定されていた。しかし、変形例2においては、第1及び第2操作手段の決定処理は、操作手段判定部302により実行される。そのため、基準位置決定部104、操作判別部106、操作量決定部108は、それぞれ第1及び第2操作手段の決定処理を実行しない。以下、これらの相違点を中心に、情報処理装置300の機能構成について説明する。
(位置検知部102)
まず、ユーザにより操作が行われると、位置検知部102は、操作手段の位置を検知する。ここで言う操作とは、例えば、指やスタイラスペン等の操作手段をタッチパネルにタッチしたり、タッチした位置を移動したりすることである。なお、本実施形態においては、複数の操作手段を用いて操作が行われることが前提である。そのため、複数の操作手段を用いて操作が行われた場合であっても、位置検知部102は、各操作手段の位置を検出することができるものとする。位置検知部102で検知された各操作手段の位置情報は、基準位置決定部104、操作判別部106、操作量決定部108に入力される。
また、位置検知部102は、タッチされた操作手段の種別を判定するための情報(以下、手段判別情報)を操作手段判定部302に入力する。操作手段の種別としては、例えば、指やスタイラスペン等がある。また、スタイラスペンには、先端に導電体の部材が設けられたものや全体が誘電体で形成されているもの等がある。これら操作手段の種別は、電磁的な特性や形状等に起因する押圧力の違い等を検知し、その検知結果に基づいて判定することができる。手段判別情報には、こうした検知結果が含まれる。なお、変形例2に係る操作手段の種別判定方法としては、任意の方法が適用可能である。
(操作手段判定部302)
上記の通り、操作手段判定部302には、位置検知部102から手段判別情報が入力される。位置検知部102から手段判別情報が入力されると、操作手段判定部302は、入力された手段判別情報に基づいて複数の操作手段を第1操作手段と第2操作手段とに分ける。例えば、操作手段判定部302は、指を第1操作手段に決定し、スタイラスペンを第2操作手段に決定する。そして、操作手段判定部302により決定された第1及び第2操作手段の情報(以下、手段情報)は、基準位置決定部104、操作判別部106、操作量決定部108に入力される。
(基準位置決定部104)
上記の通り、基準位置決定部104には、位置検知部102から位置情報が入力される。また、基準位置決定部104には、操作手段判定部302から手段情報が入力される。位置情報及び手段情報が入力されると、基準位置決定部104は、所定の処理を実行する際の基準となる画面上の基準位置を決定する。例えば、基準位置決定部104は、位置検知部102から入力された位置情報に基づいて拡大中心となる画面上の基準位置を決定する。このとき、基準位置決定部104は、入力された手段情報に基づいて第1操作手段の位置を基準位置に決定する。基準位置決定部104により決定された基準位置の情報(基準位置情報)は、表示制御部110に入力される。
(操作判別部106)
上記の通り、操作判別部106には、位置検知部102から位置情報が入力される。また、操作判別部106には、操作手段判定部302から手段情報が入力される。位置情報及び手段情報が入力されると、操作判別部106は、入力された位置情報及び手段情報に基づいて第2操作手段の移動方向を特定する。例えば、操作判別部106は、第2操作手段の移動方法と所定の処理とを対応付けるテーブルを保持しており、位置情報から特定される第2操作手段の移動方向に基づいて当該移動方向に対応する所定の処理を特定する。操作判別部106により特定された処理の種別(操作種別)を示す操作種別情報は、表示制御部110に入力される。
(操作量決定部108)
上記の通り、操作量決定部108には、位置検知部102から位置情報が入力される。また、操作量決定部108には、操作手段判定部302から手段情報が入力される。そこで、操作量決定部108は、手段情報に基づいて第2操作手段の位置情報を判別し、その位置情報に基づいて第2操作手段の移動量を算出する。そして、操作量決定部108は、第2操作手段の移動量に応じた操作量を決定する。例えば、操作種別が画像の拡大処理である場合、操作量決定部108により拡大率が決定される。そして、操作量決定部108により決定された操作量は、表示制御部110に入力される。
(表示制御部110、表示部114)
上記の通り、表示制御部110には、基準位置決定部104から基準位置情報が入力され、操作判別部106から操作種別情報が入力され、操作量決定部108から操作量が入力される。そこで、表示制御部110は、基準位置情報が示す基準位置を基準にし、操作種別情報が示す操作種別の処理を操作量の分だけ実行する。例えば、操作種別が画像の拡大処理の場合を考えると、表示制御部110は、基準位置情報が示す基準位置を拡大中心に設定し、操作量が示す拡大率になるように表示部114に画像を拡大表示させる。その結果、ユーザが第1操作手段で指定した位置を基準にして、第2操作手段の移動量に応じた拡大率で画像が拡大されて表示部114に表示される。
以上、情報処理装置300の機能構成について詳細に説明した。
(2−4−2:処理フロー)
次に、図12を参照しながら、情報処理装置300による全体的な処理の流れについて説明する。図12は、情報処理装置300による全体的な処理の流れを示す説明図である。
図12に示すように、ユーザ操作が行われると(S302)、位置検知部102によりタッチ位置が検知される(S304)。このとき、指標表示部112によりタッチ位置を明示するための何らかの指標が表示されてもよい。また、複数の操作手段によりタッチされた場合、各操作手段のタッチ位置が位置検知部102により検知され、基準位置決定部104、操作判別部106、操作量決定部108に入力される。
さらに、位置検知部102により操作手段の種別を判定するための手段判別情報が操作手段判定部302に入力される。次いで、操作手段判定部302により、手段判別情報に基づいて第1操作手段、及び第2操作手段が決定される(S306)。そして、第1及び第2操作手段を特定するための情報(手段情報)が基準位置決定部104、操作判別部106、操作量決定部108に入力される。
次いで、基準位置決定部104により、第1操作手段のタッチ位置が基準位置に決定される(S308)。そして、基準位置決定部104から表示制御部110に基準位置を示す基準位置情報が入力される。次いで、操作判別部106により、第2操作手段のタッチ位置に基づいて移動方向が特定される(S310)。さらに、操作判別部106により、特定した移動方向に対応する操作種別が判別される(S312)。そして、操作判別部106から表示制御部110に操作種別を示す操作種別情報が入力される。
次いで、操作量決定部108により、第2操作手段の移動量に応じた操作量が決定される(S314)。そして、操作量決定部108から表示制御部110に対し、決定された操作量の情報が入力される。次いで、表示制御部110により、基準位置情報が示す基準位置を基準に、操作種別情報が示す操作種別の操作を入力された操作量の分だけ実行し、表示部114の表示に反映させる(S316)。このように、第1操作手段で基準位置を指定し、第2操作手段の移動に応じて操作種別及び操作量を指定することができるため、一連のシームレスな操作により基準位置に基づく表示操作が実現される。
以上、情報処理装置300による全体的な処理の流れについて説明した。
以上説明したように、変形例2に係る技術を適用することで、拡大・縮小操作や回転操作のような基準位置に基づく表示変更を行う際に、一連のシームレスな操作の中で基準位置を指定したり、操作量(変更量)を指定したりすることができるようになる。また、基準位置の指定操作と操作量の指定操作とを操作手段の種別で分けているため、ユーザが操作手段のタッチ順を気にせずに操作できるようになる。その結果、非常に利便性の高い操作体系が実現される。
[2−5:情報処理装置100、200、300のハードウェア構成例について]
上記の情報処理装置100、200、300が有する各構成要素の機能は、例えば、図13に示すハードウェア構成を用いて実現することが可能である。例えば、各構成要素の機能は、コンピュータプログラムを用いて図13に示すハードウェアを制御することにより実現される。なお、情報処理装置100、200、300の形態は任意であり、例えば、パーソナルコンピュータ、携帯電話、PHS、PDA等の携帯情報端末、ゲーム機、又は種々の情報家電がこれに含まれる。但し、上記のPHSは、Personal Handy−phone Systemの略である。また、上記のPDAは、Personal Digital Assistantの略である。
図13に示すように、この情報処理装置は、主に、CPU902と、ROM904と、RAM906と、ホストバス908と、ブリッジ910と、外部バス912と、インターフェース914と、入力部916と、出力部918と、記憶部920と、ドライブ922と、接続ポート924と、通信部926とにより構成される。但し、上記のCPUは、Central Processing Unitの略である。また、上記のROMは、Read Only Memoryの略である。そして、上記のRAMは、Random Access Memoryの略である。
CPU902は、例えば、演算処理装置又は制御装置として機能し、ROM904、RAM906、記憶部920、又はリムーバブル記録媒体928に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。ROM904は、CPU902に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM906には、例えば、CPU902に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
これらの構成要素は、例えば、高速なデータ伝送が可能なホストバス908を介して相互に接続される。一方、ホストバス908は、例えば、ブリッジ910を介して比較的データ伝送速度が低速な外部バス912に接続される。また、入力部916としては、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力部916としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。
出力部918としては、例えば、CRT、LCD、PDP、又はELD等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。
但し、上記のCRTは、Cathode Ray Tubeの略である。また、上記のLCDは、Liquid Crystal Displayの略である。そして、上記のPDPは、Plasma DisplayPanelの略である。さらに、上記のELDは、Electro−Luminescence Displayの略である。
記憶部920は、各種のデータを格納するための装置である。記憶部920としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。但し、上記のHDDは、Hard Disk Driveの略である。
ドライブ922は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体928に記録された情報を読み出し、又はリムーバブル記録媒体928に情報を書き込む装置である。リムーバブル記録媒体928は、例えば、DVDメディア、Blu−rayメディア、HD DVDメディア、コンパクトフラッシュ(登録商標)(CF)、メモリースティック、又はSDメモリカード等である。
もちろん、リムーバブル記録媒体928は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。但し、上記のCFは、CompactFlashの略である。また、上記のSDは、Secure Digital memory cardの略である。上記のICは、Integrated Circuitの略である。
接続ポート924は、例えば、USBポート、IEEE1394ポート、SCSI、RS−232Cポート、又は光オーディオ端子等のような外部接続機器930を接続するためのポートである。外部接続機器930は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。但し、上記のUSBは、Universal Serial Busの略である。また、上記のSCSIは、Small Computer System Interfaceの略である。
通信部926は、ネットワーク932に接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB用の通信カード、光通信用のルータ、ADSL用のルータ、又は各種通信用のモデム等である。また、通信部926に接続されるネットワーク932は、有線又は無線により接続されたネットワークにより構成される。
例えば、ネットワーク932は、インターネット、家庭内LAN、赤外線通信、可視光通信、放送、又は衛星通信等である。但し、上記のLANは、Local Area Networkの略である。また、上記のWUSBは、Wireless USBの略である。そして、上記のADSLは、Asymmetric Digital Subscriber Lineの略である。
<3:まとめ>
最後に、本実施形態の情報処理装置が有する機能構成と、当該機能構成により得られる作用効果について簡単に纏める。
まず、本実施形態に係る情報処理装置の機能構成は次のように表現することができる。当該情報処理装置は、次のような表示部、位置検知部、基準位置決定部、表示変更動作特定部、及び表示制御部を有する。
上記の表示部には、オブジェクトが表示される。上記の位置検知部は、前記表示部の表面に接触又は近接された操作手段の位置を検知するものである。例えば、静電センサや押圧センサ等のセンサ装置を用いることで位置検知部の機能が実現される。上記の基準位置決定部は、複数の操作手段が前記表示部に接触又は近接された際に、前記位置検知部で最初に検知された操作手段の位置を基準位置に決定するものである。
このように、ユーザ操作の最初に検知された操作手段の位置を基準位置に決定する構成にすることで、ユーザは、一連の操作の中で基準位置をシームレスに指定することができるようになる。
また、上記の表示変更動作特定部は、前記位置検知部でN番目(N≧2)に検知された操作手段の位置が移動する方向に応じて当該方向に対応付けられた所定の表示変更動作を特定するものである。上記の通り、ユーザ操作の最初にタッチされた操作手段の位置は、基準位置に決定される。一方、ユーザ操作の中でN番目にタッチされた操作手段の位置は、所定の表示変更動作を特定するために用いられる。また、N番目にタッチされた操作手段の位置が移動する方法と所定の表示変更動作とが対応付けられている。そのため、ユーザは、所望の表示変更動作を行う際、N番目にタッチした操作手段を所定の方向に移動させるだけで所望の表示変更動作を実現することが可能になる。
また、上記の表示制御部は、前記基準位置決定部で決定された基準位置を基準にして前記表示変更動作特定部で特定された表示変更動作を前記オブジェクトに対して実行するものである。つまり、表示制御部は、ユーザ操作の最初にタッチされた操作手段の位置(基準位置)を基準に、N番目にタッチされた操作手段の移動方向により特定される表示変更動作を実行する。
このような構成にすることで、ユーザは、基準位置に基づく表示変更動作を実行させる際に、一連の操作の中でシームレスに基準位置と操作内容とを指定することが可能になる。その結果、非常に高い利便性を有する操作体系が実現される。
また、前記表示制御部は、次にような基準指標表示部、及び変更指標表示部を含むように構成されていてもよい。上記の基準指標表示部は、前記基準位置決定部で基準位置が決定された際に当該基準位置を示す基準指標を前記表示部に表示させるものである。また、上記の変更指標表示部は、前記表示変更動作特定部で所定の表示変更動作が特定された際に当該所定の表示変更動作の種類及び当該所定の表示変更動作による変更量を示す変更指標を前記表示部に表示させるものである。
このように、一連の操作の中でシームレスに指定される基準位置及び操作内容を表示することで、ユーザは、自身が指定した内容を正確に認識できるようになると共に、操作時における設定情報を認識できるようになる。
また、上記の情報処理装置は、前記位置検知部で位置が検知された操作手段の種類を検知する種類検知部をさらに備えていてもよい。さらに、前記種類検知部で互いに異なる種類の操作手段が検知された場合、前記基準位置決定部は、前記位置検知部で検知された第1種類の操作手段の位置を基準位置に決定するように構成されていてもよい。そして、前記表示変更動作特定部は、前記位置検知部で検知された前記第1種類とは異なる第2種類の操作手段の位置が移動する方向に応じて当該方向に対応付けられた所定の表示変更動作を特定するように構成されていてもよい。
このような構成にすることで、ユーザが操作の順序に気を遣わずに基準位置及び操作内容の指定を行うことが可能になる。
また、前記表示制御部は、前記N番目に検知された操作手段が拡大又は縮小動作に対応付けられた方向に移動した場合、前記基準位置決定部で決定された基準位置を中心にして前記オブジェクトを拡大又は縮小させるように構成されていてもよい。このように、基準位置を容易かつ明確に指定することができる本実施形態の技術は、画像等のオブジェクトを拡大又は縮小させるために好適に用いられる。
また、前記表示制御部は、前記N番目に検知された操作手段が回転動作に対応付けられた方向に移動した場合、前記基準位置決定部で決定された基準位置を中心にして前記オブジェクトを回転させるように構成されていてもよい。このように、基準位置を容易かつ明確に指定することができる本実施形態の技術は、画像等のオブジェクトを回転させるために好適に用いられる。
また、前記表示部は、前記オブジェクトが表示される表示領域、及び当該表示画面の外側に設けられた前記オブジェクトが表示されない非表示領域を有していてもよい。この場合、前記基準位置決定部は、前記操作手段の位置が前記表示領域に含まれる場合に当該操作手段の位置を基準位置に決定するように構成される。そして、前記表示変更動作特定部は、前記操作手段の位置が前記非表示領域に含まれる場合に当該操作手段が移動する方向に応じて前記所定の表示変更動作を特定するように構成される。
このような構成にすることで、ユーザが操作の順序に気を遣わずに基準位置及び操作内容の指定を行うことが可能になる。
以上、添付図面を参照しながら本発明の好適な実施形態について説明したが、本発明は係る例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。
例えば、上記の説明においては、操作手段のタッチを前提に説明したが、光学式のタッチパネルを用いる場合、操作手段の位置を検知するために必ずしも接触が必要とされない。また、操作手段の種類としては指やスタイラスペン等があるが、親指と人差し指といった指の種類も操作手段の種類として認識可能である。また、操作手段として指を用いる場合、ユーザは、両手を用いて操作してもよいし、片手で操作してもよい。
100 情報処理装置
102 位置検知部
104 基準位置決定部
106 操作判別部
108 操作量決定部
110 表示制御部
112 指標表示部
114 表示部
200 情報処理装置
202 操作領域判定部
300 情報処理装置
302 操作手段判定部
A10 表示領域
A12 非表示領域
G1 基準指標
G2 変更指標
Q10 入力デバイス
Q12 ジェスチャー処理部
Q14 アプリケーション
Q16 出力デバイス
10 情報処理装置
12 タッチパネル
14、14A、14B 指

Claims (7)

  1. オブジェクトが表示される表示部と、
    前記表示部の表面に接触又は近接された操作手段の位置を検知する位置検知部と、
    複数の操作手段が前記表示部に接触又は近接された際に、前記位置検知部で最初に検知された操作手段の位置を基準位置に決定する基準位置決定部と、
    前記位置検知部でN番目(N≧2)に検知された操作手段の位置が移動する方向に応じて当該方向に対応付けられた所定の表示変更動作を特定する表示変更動作特定部と、
    前記基準位置決定部で決定された基準位置を基準にして前記表示変更動作特定部で特定された表示変更動作を前記オブジェクトに対して実行する表示制御部と、
    を備える、情報処理装置。
  2. 前記表示制御部は、
    前記基準位置決定部で基準位置が決定された際に当該基準位置を示す基準指標を前記表示部に表示させる基準指標表示部と、
    前記表示変更動作特定部で所定の表示変更動作が特定された際に当該所定の表示変更動作の種類及び当該所定の表示変更動作による変更量を示す変更指標を前記表示部に表示させる変更指標表示部と、
    を含む、請求項1に記載の情報処理装置。
  3. 前記位置検知部で位置が検知された操作手段の種類を検知する種類検知部をさらに備え、
    前記種類検知部で互いに異なる種類の操作手段が検知された場合、
    前記基準位置決定部は、前記位置検知部で検知された第1種類の操作手段の位置を基準位置に決定し、
    前記表示変更動作特定部は、前記位置検知部で検知された前記第1種類とは異なる第2種類の操作手段の位置が移動する方向に応じて当該方向に対応付けられた所定の表示変更動作を特定する、請求項1に記載の情報処理装置。
  4. 前記表示制御部は、前記N番目に検知された操作手段が拡大又は縮小動作に対応付けられた方向に移動した場合、前記基準位置決定部で決定された基準位置を中心にして前記オブジェクトを拡大又は縮小させる、請求項1に記載の情報処理装置。
  5. 前記表示制御部は、前記N番目に検知された操作手段が回転動作に対応付けられた方向に移動した場合、前記基準位置決定部で決定された基準位置を中心にして前記オブジェクトを回転させる、請求項1に記載の情報処理装置。
  6. 前記表示部は、前記オブジェクトが表示される表示領域、及び当該表示画面の外側に設けられた前記オブジェクトが表示されない非表示領域を有し、
    前記基準位置決定部は、前記操作手段の位置が前記表示領域に含まれる場合に当該操作手段の位置を基準位置に決定し、
    前記表示変更動作特定部は、前記操作手段の位置が前記非表示領域に含まれる場合に当該操作手段が移動する方向に応じて前記所定の表示変更動作を特定する、請求項1に記載の情報処理装置。
  7. オブジェクトが表示される表示部の表面に接触又は近接された操作手段の位置を検知する位置検知ステップと、
    複数の操作手段が前記表示部に接触又は近接された際に、前記位置検知ステップで最初に検知された操作手段の位置を基準位置に決定する基準位置決定ステップと、
    前記位置検知ステップでN番目(N≧2)に検知された操作手段の位置が移動する方向に応じて当該方向に対応付けられた所定の表示変更動作を特定する表示変更動作特定ステップと、
    前記基準位置決定ステップで決定された基準位置を基準にして前記表示変更動作特定ステップで特定された表示変更動作を前記オブジェクトに対して実行する表示制御ステップと、
    を含む、表示制御方法。
JP2009017193A 2009-01-28 2009-01-28 情報処理装置、及び表示制御方法 Pending JP2010176330A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009017193A JP2010176330A (ja) 2009-01-28 2009-01-28 情報処理装置、及び表示制御方法
EP09252732.4A EP2214089B1 (en) 2009-01-28 2009-12-04 Information processing apparatus and display control method
US12/693,958 US8711182B2 (en) 2009-01-28 2010-01-26 Information processing apparatus and display control method
CN201010105314A CN101859221A (zh) 2009-01-28 2010-01-28 信息处理装置和显示控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009017193A JP2010176330A (ja) 2009-01-28 2009-01-28 情報処理装置、及び表示制御方法

Publications (1)

Publication Number Publication Date
JP2010176330A true JP2010176330A (ja) 2010-08-12

Family

ID=41664663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009017193A Pending JP2010176330A (ja) 2009-01-28 2009-01-28 情報処理装置、及び表示制御方法

Country Status (4)

Country Link
US (1) US8711182B2 (ja)
EP (1) EP2214089B1 (ja)
JP (1) JP2010176330A (ja)
CN (1) CN101859221A (ja)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053876A (ja) * 2010-09-02 2012-03-15 Samsung Electronics Co Ltd タッチスクリーンを備えたコンテンツ表示携帯端末及びそのコンテンツ表示方法
JP2012234553A (ja) * 2012-06-13 2012-11-29 Toshiba Corp 電子機器、表示方法
WO2013031134A1 (en) * 2011-09-01 2013-03-07 Sony Corporation Information processing apparatus, information processing method, and program
JP2013054479A (ja) * 2011-09-02 2013-03-21 Clarion Co Ltd 操作装置
JP2013089201A (ja) * 2011-10-21 2013-05-13 Sony Computer Entertainment Inc 入力制御装置、入力制御方法、及び入力制御プログラム
JP2013131027A (ja) * 2011-12-21 2013-07-04 Kyocera Corp 装置、方法及びプログラム
JP2013161230A (ja) * 2012-02-03 2013-08-19 Denso Corp 入力装置
JP2014010777A (ja) * 2012-07-02 2014-01-20 Fujitsu Ltd 表示プログラム、表示方法、及び情報処理装置
JP2014067164A (ja) * 2012-09-25 2014-04-17 Nintendo Co Ltd 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
JP2014209334A (ja) * 2013-03-26 2014-11-06 株式会社Nttドコモ 情報端末、表示制御方法、及び表示制御プログラム
JP2015005265A (ja) * 2013-11-25 2015-01-08 利仁 曽根 リサイズ要求判定方法
JP2015005182A (ja) * 2013-06-21 2015-01-08 カシオ計算機株式会社 入力装置、入力方法及びプログラム並びに電子機器
JP2015079313A (ja) * 2013-10-15 2015-04-23 シャープ株式会社 表示装置及び表示方法
JP2016015126A (ja) * 2015-05-29 2016-01-28 利仁 曽根 リサイズ要求判定方法
JP2016170763A (ja) * 2015-03-12 2016-09-23 Line株式会社 画面制御のための効率的なインタフェースを提供するシステムおよび方法
JP2017016711A (ja) * 2016-10-26 2017-01-19 富士通株式会社 表示プログラム
JP2018010691A (ja) * 2017-10-05 2018-01-18 シャープ株式会社 表示装置及び表示方法

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8638371B2 (en) * 2010-02-12 2014-01-28 Honeywell International Inc. Method of manipulating assets shown on a touch-sensitive display
US8570286B2 (en) * 2010-02-12 2013-10-29 Honeywell International Inc. Gestures on a touch-sensitive display
US20110199386A1 (en) * 2010-02-12 2011-08-18 Honeywell International Inc. Overlay feature to provide user assistance in a multi-touch interactive display environment
US8810509B2 (en) * 2010-04-27 2014-08-19 Microsoft Corporation Interfacing with a computing application using a multi-digit sensor
EP2492788B1 (en) 2011-02-24 2015-07-15 ST-Ericsson SA Zooming method
US10345912B2 (en) 2011-03-07 2019-07-09 Lenovo (Beijing) Co., Ltd. Control method, control device, display device and electronic device
CN102681750B (zh) * 2011-03-14 2014-04-23 联想(北京)有限公司 用于移动显示对象的方法、显示装置和电子设备
US8836802B2 (en) 2011-03-21 2014-09-16 Honeywell International Inc. Method of defining camera scan movements using gestures
US8810535B2 (en) 2011-10-18 2014-08-19 Blackberry Limited Electronic device and method of controlling same
EP2584441A1 (en) * 2011-10-18 2013-04-24 Research In Motion Limited Electronic device and method of controlling same
KR101924095B1 (ko) * 2012-04-06 2018-11-30 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
JP5942900B2 (ja) * 2012-04-13 2016-06-29 カシオ計算機株式会社 表示装置及びプログラム
US9268407B1 (en) * 2012-10-10 2016-02-23 Amazon Technologies, Inc. Interface elements for managing gesture control
US20140210748A1 (en) * 2013-01-30 2014-07-31 Panasonic Corporation Information processing apparatus, system and method
US9842571B2 (en) * 2013-02-22 2017-12-12 Samsung Electronics Co., Ltd. Context awareness-based screen scroll method, machine-readable storage medium and terminal therefor
CN104252302A (zh) * 2013-06-26 2014-12-31 富泰华工业(深圳)有限公司 图像自适应调整系统及方法
JP6978826B2 (ja) * 2016-01-08 2021-12-08 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128149A (ja) * 1995-10-31 1997-05-16 Casio Comput Co Ltd ペン入力システム及びペン型入力装置
JPH1173271A (ja) * 1997-08-28 1999-03-16 Sharp Corp 指示装置、処理装置および記憶媒体
JP2005182367A (ja) * 2003-12-18 2005-07-07 Matsushita Electric Ind Co Ltd 携帯端末装置
JP2007116336A (ja) * 2005-10-19 2007-05-10 Nec Corp リモートコントローラ及びリモートコントロールシステム並びにリモートコントロール方法
JP2008181523A (ja) * 2007-01-25 2008-08-07 Samsung Electronics Co Ltd タッチスクリーンにおける使用性向上のための装置および方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7840912B2 (en) * 2006-01-30 2010-11-23 Apple Inc. Multi-touch gesture dictionary
US7138983B2 (en) * 2000-01-31 2006-11-21 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
US7656393B2 (en) * 2005-03-04 2010-02-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US7676754B2 (en) * 2004-05-04 2010-03-09 International Business Machines Corporation Method and program product for resolving ambiguities through fading marks in a user interface
US7743348B2 (en) * 2004-06-30 2010-06-22 Microsoft Corporation Using physical objects to adjust attributes of an interactive display application
US20070222767A1 (en) * 2006-03-22 2007-09-27 David Wang Glide touch sensor based interface for navigation infotainment systems
JP5210497B2 (ja) 2006-04-12 2013-06-12 クラリオン株式会社 ナビゲーション装置
DE202007018940U1 (de) * 2006-08-15 2009-12-10 N-Trig Ltd. Bewegungserkennung für einen Digitalisierer
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
JP2009017193A (ja) 2007-07-04 2009-01-22 Nec Corp 送信機および送信方法
US20090207142A1 (en) * 2008-02-20 2009-08-20 Nokia Corporation Apparatus, method, computer program and user interface for enabling user input
US20100073303A1 (en) * 2008-09-24 2010-03-25 Compal Electronics, Inc. Method of operating a user interface
US20100107067A1 (en) * 2008-10-27 2010-04-29 Nokia Corporation Input on touch based user interfaces
US20100149114A1 (en) * 2008-12-16 2010-06-17 Motorola, Inc. Simulating a multi-touch screen on a single-touch screen

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09128149A (ja) * 1995-10-31 1997-05-16 Casio Comput Co Ltd ペン入力システム及びペン型入力装置
JPH1173271A (ja) * 1997-08-28 1999-03-16 Sharp Corp 指示装置、処理装置および記憶媒体
JP2005182367A (ja) * 2003-12-18 2005-07-07 Matsushita Electric Ind Co Ltd 携帯端末装置
JP2007116336A (ja) * 2005-10-19 2007-05-10 Nec Corp リモートコントローラ及びリモートコントロールシステム並びにリモートコントロール方法
JP2008181523A (ja) * 2007-01-25 2008-08-07 Samsung Electronics Co Ltd タッチスクリーンにおける使用性向上のための装置および方法

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012053876A (ja) * 2010-09-02 2012-03-15 Samsung Electronics Co Ltd タッチスクリーンを備えたコンテンツ表示携帯端末及びそのコンテンツ表示方法
US10140002B2 (en) 2011-09-01 2018-11-27 Sony Corporation Information processing apparatus, information processing method, and program
WO2013031134A1 (en) * 2011-09-01 2013-03-07 Sony Corporation Information processing apparatus, information processing method, and program
JP2013054479A (ja) * 2011-09-02 2013-03-21 Clarion Co Ltd 操作装置
JP2013089201A (ja) * 2011-10-21 2013-05-13 Sony Computer Entertainment Inc 入力制御装置、入力制御方法、及び入力制御プログラム
JP2013131027A (ja) * 2011-12-21 2013-07-04 Kyocera Corp 装置、方法及びプログラム
JP2013161230A (ja) * 2012-02-03 2013-08-19 Denso Corp 入力装置
JP2012234553A (ja) * 2012-06-13 2012-11-29 Toshiba Corp 電子機器、表示方法
JP2014010777A (ja) * 2012-07-02 2014-01-20 Fujitsu Ltd 表示プログラム、表示方法、及び情報処理装置
JP2014067164A (ja) * 2012-09-25 2014-04-17 Nintendo Co Ltd 情報処理装置、情報処理システム、情報処理方法、及び情報処理プログラム
JP2014209334A (ja) * 2013-03-26 2014-11-06 株式会社Nttドコモ 情報端末、表示制御方法、及び表示制御プログラム
JP2015005182A (ja) * 2013-06-21 2015-01-08 カシオ計算機株式会社 入力装置、入力方法及びプログラム並びに電子機器
JP2015079313A (ja) * 2013-10-15 2015-04-23 シャープ株式会社 表示装置及び表示方法
JP2015005265A (ja) * 2013-11-25 2015-01-08 利仁 曽根 リサイズ要求判定方法
JP2016170763A (ja) * 2015-03-12 2016-09-23 Line株式会社 画面制御のための効率的なインタフェースを提供するシステムおよび方法
JP2016015126A (ja) * 2015-05-29 2016-01-28 利仁 曽根 リサイズ要求判定方法
JP2017016711A (ja) * 2016-10-26 2017-01-19 富士通株式会社 表示プログラム
JP2018010691A (ja) * 2017-10-05 2018-01-18 シャープ株式会社 表示装置及び表示方法

Also Published As

Publication number Publication date
EP2214089A3 (en) 2011-09-21
EP2214089B1 (en) 2017-08-09
US20100188423A1 (en) 2010-07-29
CN101859221A (zh) 2010-10-13
US8711182B2 (en) 2014-04-29
EP2214089A2 (en) 2010-08-04

Similar Documents

Publication Publication Date Title
JP2010176330A (ja) 情報処理装置、及び表示制御方法
US10606405B2 (en) Information processing device, operation input method and operation input program
EP2224321B1 (en) Information processing apparatus and display control method
US9507507B2 (en) Information processing apparatus, information processing method and program
JP4605214B2 (ja) 情報処理装置、情報処理方法及びプログラム
US8970503B2 (en) Gestures for devices having one or more touch sensitive surfaces
US8976140B2 (en) Touch input processor, information processor, and touch input control method
US9280265B2 (en) Input control device, input control method, and input control program for controlling display target upon receiving input on display screen of display device
US20100079501A1 (en) Information Processing Apparatus, Information Processing Method and Program
TWI547855B (zh) 資訊處理裝置,資訊處理方法及程式
US20130100051A1 (en) Input control device, input control method, and input control program for controlling display target upon receiving input on display screen of display device
KR20150134674A (ko) 사용자 단말 및 이의 제어 방법, 그리고 멀티미디어 시스템
US20130100050A1 (en) Input control device, input control method, and input control program for controlling display target upon receiving input on display screen of display device
JP2015141526A (ja) 情報処理装置、情報処理方法、及びプログラム
US20140085340A1 (en) Method and electronic device for manipulating scale or rotation of graphic on display

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101214

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20110405