JP2016133978A - Information processor, information processing method and program - Google Patents
Information processor, information processing method and program Download PDFInfo
- Publication number
- JP2016133978A JP2016133978A JP2015008087A JP2015008087A JP2016133978A JP 2016133978 A JP2016133978 A JP 2016133978A JP 2015008087 A JP2015008087 A JP 2015008087A JP 2015008087 A JP2015008087 A JP 2015008087A JP 2016133978 A JP2016133978 A JP 2016133978A
- Authority
- JP
- Japan
- Prior art keywords
- cpu
- touch
- cursor
- input
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing apparatus, an information processing method, and a program.
近年、タッチパネルを備えた携帯電話端末や携帯音楽プレーヤ、PDA(Personal Digital Assistant)等のモバイル機器が多数製品化されている。それに伴い、タッチパネルに対応したアプリケーションが多数開発されており、その中には、細かな編集操作が必要とされるものも含まれている。例えば、大きなオブジェクトを選択する際は1本指でタッチすることでオブジェクト選択できるようにすることが、操作も簡易で分かり易いUIである。しかし、小さいオブジェクトを指で選択する場合には、指がオブジェクトに被ってしまうため、オブジェクト自体が見えなくなる。特許文献1には、この問題を回避するため、オペレータがタッチパネルをタッチしてカーソルを移動させる場合、移動させたカーソルを実際の位置より上方にずらすことにより、カーソルがオペレータの指に隠れないようにすることが開示されている。 In recent years, a large number of mobile devices such as mobile phone terminals, portable music players, and PDAs (Personal Digital Assistants) equipped with a touch panel have been commercialized. Along with this, many applications that support touch panels have been developed, and some of them require detailed editing operations. For example, when selecting a large object, the user can select the object by touching with one finger, and the UI is simple and easy to understand. However, when a small object is selected with a finger, the object is not visible because the finger covers the object. In Patent Document 1, in order to avoid this problem, when the operator moves the cursor by touching the touch panel, the cursor is not hidden by the operator's finger by shifting the moved cursor above the actual position. Is disclosed.
また、表示画面の端や隅に表示されているオブジェクトは、タッチし難く、このようなオブジェクトを選択する操作は、ユーザにとって煩わしい操作となる。特許文献2には、常にカーソルをタッチ位置の上側に表示することにより、画面最下部に指示点を設けることができなくなるという問題を回避する技術として、画面の下側の領域ではカーソルをタッチ位置の左側に表示することが開示されている。さらに、特許文献2には、画面の下側の領域でカーソルをタッチ位置の左側に表示すると画面の左下側には指示点を設けることができなくなってしまうので、画面の左下側の領域ではカーソルをタッチ位置の右側に表示することが開示されている。 In addition, objects displayed at the edges and corners of the display screen are difficult to touch, and an operation for selecting such an object is a troublesome operation for the user. In Patent Document 2, as a technique for avoiding the problem that the indication point cannot be provided at the bottom of the screen by always displaying the cursor above the touch position, the cursor is moved to the touch position in the lower area of the screen. Is displayed on the left side. Further, in Patent Document 2, if the cursor is displayed on the left side of the touch position in the lower area of the screen, the pointing point cannot be provided on the lower left side of the screen. Therefore, the cursor is not displayed on the lower left area of the screen. Is displayed on the right side of the touch position.
しかしながら、複数のオブジェクトが近接して配置されている場合、ユーザは所望のオブジェクトをタッチしたつもりでも、別のアイコンや複数のオブジェクトが選択されてしまうことがある。また、オブジェクトを移動させる等の微調整が必要な場合には、1本指によるオブジェクトのタッチ、ドラッグ操作では細かな位置の指定が困難である。また、特許文献1、2の技術においては、カーソルの表示位置が自動的に変更されるため、ユーザのタッチ操作中にカーソル(選択位置)が突然、予想しない別の場所に移動してしまうという問題があった。 However, when a plurality of objects are arranged close to each other, another icon or a plurality of objects may be selected even if the user intends to touch the desired object. When fine adjustment such as moving an object is necessary, it is difficult to specify a fine position by touching or dragging the object with one finger. In the techniques of Patent Documents 1 and 2, the cursor display position is automatically changed, so that the cursor (selection position) suddenly moves to another unexpected place during the user's touch operation. There was a problem.
本発明はこのような問題点に鑑みなされたもので、ユーザによる細かな入力操作を実現することを目的とする。 The present invention has been made in view of such problems, and an object thereof is to realize a fine input operation by a user.
そこで、本発明は、情報処理装置であって、入力面上の2点へのタッチ入力が検知された場合に、前記2点に基づいて定まる位置であり、かつ前記2点と異なる位置を入力位置とするユーザ操作を受け付ける受付手段と、前記ユーザ操作に応じた処理を行う処理手段とを有することを特徴とする。 Therefore, the present invention is an information processing apparatus, and when a touch input to two points on an input surface is detected, a position determined based on the two points and a position different from the two points are input. It has a receiving means for receiving a user operation as a position, and a processing means for performing processing according to the user operation.
本発明によれば、ユーザによる細かな入力操作を実現することができる。 According to the present invention, a fine input operation by a user can be realized.
以下、本発明の実施形態について図面に基づいて説明する。
図1は、本実施形態の情報処理装置100を示す図である。情報処理装置100は、タッチパネル101、ROM102、RAM103、HDD104、CPU105、ネットワークI/F106及びバス107を有している。タッチパネル101は、タッチセンサが配置された入力面と、表示画面としてのディスプレイを備え、タッチセンサをディスプレイに重ね合わせて平面的に構成されている。タッチパネル101は、物体が接触した入力面上の位置を示す座標情報を出力する入力デバイスである。タッチパネル101は、情報処理装置100が出力する画像情報をディスプレイに表示する表示機能と、タッチセンサにより物体の接触を検知し検知情報を電気信号としてCPU105に入力する入力機能を有している。タッチパネル101は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものであってもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an
ROM102は、タッチ入力プログラム等の各種制御プログラムやデータを保存する。RAM103は、CPU105のワーク領域、エラー処理時のデータの退避領域、制御プログラムのロード領域等を有する。HDD104は、情報処理装置100内で実行される制御プログラムや一時保管したデータ等を格納する。CPU105は、ROM102、HDD104に格納されたOSや制御プログラムに基づいて、各デバイスを制御する。なお、後述する情報処理装置100の機能や処理は、CPU105がROM102又はHDD104に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
The
ネットワークI/F106は、他の情報処理装置やプリンタ等とネットワークを介して通信を行う。バス107は、アドレスバス、データバス及びコントロールバスを含む。CPU105に対する制御プログラムの提供は、ROM102、HDD104から行うこともできるし、ネットワークI/F106を介してネットワーク経由で他の情報処理装置等から行うこともできる。
The network I /
CPU105は、タッチパネル101へのユーザ操作を受け付け、ユーザ操作に応じた、操作状態を検知する。操作状態としては、タッチダウン、タッチオン、ドラッグ、タッチアップ及びタッチオフが挙げられる。タッチダウンとは、指やペン等の物体がタッチパネル101に触れる操作が行われた状態である。タッチオンとは、物体がタッチパネル101に触れている状態である。ドラッグとは、物体がタッチパネルに触れたまま移動している状態である。タッチアップとは、タッチパネル101に触れていた物体をタッチパネル101から離す操作が行われた状態である。タッチオフとは、何もタッチパネル101に触れていない状態である。
CPU105 receives the user operation to the
操作状態としてはまた、シングルタップ、マルチタップ、ダブルシングルタップ(ダブルマルチタップ)、ロングシングルタップ、ロングマルチタップが挙げられる。シングルタップとは、タッチダウンが検知された後、所定時間内にタッチアップが連続して行われた状態である。マルチタップとは、複数カ所で同時にタッチダウンが検知された後、所定時間内に複数箇所で同時にタッチアップが行われた状態である。ダブルシングルタップとは、所定の時間内のタッチダウンとタッチアップの操作が、さらに所定時間内に2度行われた状態である。ロングシングルタップとは、1箇所でタッチダウンが検知された後、所定時間経過後に1箇所でタッチアップが連続して行われた状態である。ロングマルチタップとは、複数箇所でタッチダウンが検知された後、所定時間経過後に複数箇所でタッチアップが連続して行われた状態である。 Examples of the operation state include single tap, multi tap, double single tap (double multi tap), long single tap, and long multi tap. Single tap is a state in which touch-up is continuously performed within a predetermined time after touch-down is detected. Multi-tap is a state in which touch-up is simultaneously performed at a plurality of locations within a predetermined time after touch-down is detected at a plurality of locations simultaneously. The double single tap is a state in which touchdown and touchup operations within a predetermined time are further performed twice within a predetermined time. The long single tap is a state in which touch-up is continuously performed at one place after a predetermined time has elapsed after touch-down is detected at one place. The long multi-tap is a state in which touch-up is continuously performed at a plurality of locations after a predetermined time has elapsed after touch-down is detected at the plurality of locations.
なお、タップとは、比較的短い所定時間以下の間、タッチパネル101に接触する操作である。また、タップとは異なる操作としてドラッグという操作がある。ドラッグとは、タップに比べて、長い時間タッチパネル101に接触し続け、接触部を移動させる入力操作である。
The tap is an operation of touching the
CPU105は、これらの操作や、物体がタッチパネル101に触れている位置を示す座標に基づいて、タッチパネル101を介して入力された操作を識別する。本実施形態のCPU105は、タッチパネル101上の1箇所だけで物体が接触していること(以下、シングルタッチと称する)、タッチパネル101上の複数箇所で物体が同時に接触していること(以下、マルチタッチと称する)を検知することが可能である。
The
次に、本実施形態に係る情報処理装置100の、操作モードについて説明する。情報処理装置100は、操作モードとして、通常選択モード、マルチ選択モード、カーソル表示モードの3つのモードを有している。これにより、簡便な操作でオブジェクト選択と詳細な編集操作を両立させるタッチパネルインタフェースを実現することができる。以下、各操作モードについて説明する。
Next, an operation mode of the
まず、通常選択モードについて説明する。通常選択モードとは、ユーザ操作によりタッチパネル101へのシングルタップすることにより、表示されているオブジェクトを選択することができる操作モードである。通常選択モードにおいては、さらに、そのままドラッグすることにより、オブジェクトを、タッチパネル101上を移動させることができる。通常選択モードにおいてはさらに、マルチタッチによるピンチイン・アウト操作も行うことができる。ここで、ピンチイン・アウト操作とは、2点間の距離を変化させることで表示内容の拡大縮小を行う操作である。
First, the normal selection mode will be described. The normal selection mode is an operation mode in which a displayed object can be selected by a single tap on the
次に、マルチ選択モードについて説明する。マルチ選択モードとは、2本指でマルチタッチすることにより、2本指のタッチ入力の入力位置の中点を選択できる操作モードである。図2は、マルチ選択モードを説明するための図である。図2(a)〜(d)の200,201は、ユーザの指を示す。210は、選択位置、220は、オブジェクトを示している。図2(a)は、ユーザが、2本指200,201によりタッチパネル101をマルチタッチした状態を示している。マルチ選択モードでは、情報処理装置100は、タッチパネル101上でユーザの指200,201がタッチした2点を結ぶ線分の中点(=選択位置210)を指定されたと判断する。図2(a)に示すように選択位置210上にオブジェクト220が表示されている場合、情報処理装置100は、オブジェクト220の選択指示を受け付ける。情報処理装置100は、マルチタッチを検知すると、選択位置210の座標を取得し、RAM103に記録してもよい。このように情報処理装置100は、マルチタッチされたときにその中点をタッチされたと判断するので、オブジェクトの選択中も、ユーザの指に隠れることなくオブジェクトを表示することができる。したがって、ユーザは、オブジェクトを見易い状態で、ユーザ操作を行うことができる。
Next, the multi selection mode will be described. The multi selection mode is an operation mode in which the middle point of the input position of the touch input of two fingers can be selected by multi-touching with two fingers. FIG. 2 is a diagram for explaining the multi-select mode.
図2(b)は、図2(a)に示すように、タッチパネル101上でオブジェクト220が選択された状態から、2本指200,201が画面右下方向にドラッグされた状態を示している。タッチパネル101上を、2本指200,201でドラッグされると、2本指200,201の中点が選択位置210として移動する。図2(b)のようにオブジェクト220を選択した状態でマルチドラッグが行われると、オブジェクト220も選択位置210と共に移動する。
FIG. 2B shows a state where the two
図2(c)は、図2(a)に示すように、タッチパネル101上でオブジェクト220が選択された状態から、1本の指201だけがタッチパネル101から離れた状態を示している。このとき、情報処理装置100は、選択位置210とタッチしたままの指200の位置関係を保持し、オブジェクト220の選択中の状態を維持する。図2(d)は、図2(c)の状態からタッチパネル101上で指200がタッチされたまま画面右下方向にドラッグされた状態を示している。このように、ドラッグ時には、タッチしている指200と選択位置210の位置関係を保持したまま選択位置210が移動する。図2(d)に示すように、オブジェクト220が選択された状態においては、オブジェクト220も選択位置210と共に移動する。
FIG. 2C shows a state where only one
このように、マルチ選択モードにおいては、ユーザはオブジェクトを指で隠すことなくオブジェクトを選択できる。さらに、マルチタッチ後に片方の指だけを離した状態でドッグ操作が継続した場合には、タッチされている指とオブジェクトの位置関係を保ったままオブジェクトを移動させることができる。したがって、ユーザが指で選択しにくい画面端や隅に、オブジェクトを容易に移動させることができる。例えば、画面右端にオブジェクトを移動させたい場合は、マルチタッチした2本指のうち左に位置する指を離して右に位置する指でドラッグすることで、画面端に指が当たることなく、オブジェクトを移動することができる。すなわち、ユーザが指定したい場所に合わせて、タッチパネルに接触する指と、タッチパネルに表示されたカーソルやオブジェクトとの位置関係を任意に設定することができるので、ユーザの操作性が向上する。 As described above, in the multi-selection mode, the user can select an object without hiding the object with a finger. Furthermore, when the dog operation is continued with only one finger released after multi-touch, the object can be moved while maintaining the positional relationship between the touched finger and the object. Therefore, the object can be easily moved to the screen edge or corner that is difficult for the user to select with the finger. For example, if you want to move an object to the right edge of the screen, you can release the left finger of two multi-touched fingers and drag it with the right finger so that the finger does not hit the edge of the screen. Can be moved. That is, the user's operability is improved because the positional relationship between the finger touching the touch panel and the cursor or object displayed on the touch panel can be arbitrarily set in accordance with the location desired by the user.
次に、カーソル表示モードについて説明する。カーソル表示モードとは、2本指でマルチタッチすることにより、2本指のタッチ入力の入力位置の中点にカーソル等のポインティングを表示する操作モードである。ユーザは、こうして表示されたカーソルを操作することにより、オブジェクトを選択することができる。図3は、カーソル表示モードを説明するための図である。図3(a)〜(e)の300,301は、ユーザの指を示す。310は、カーソル、320は、オブジェクトを示している。
Next, the cursor display mode will be described. The cursor display mode is an operation mode in which pointing such as a cursor is displayed at the midpoint of the input position of the touch input of two fingers by multi-touching with two fingers. The user can select an object by operating the cursor thus displayed. FIG. 3 is a diagram for explaining the cursor display mode.
図3(a)は、ユーザが2本指300,301によりタッチパネル101をマルチタッチした状態を示している。カーソル表示モードでは、情報処理装置100は、カーソルが非表示の状態において、マルチタッチを検知すると、2点の中点にカーソル310を表示する。なお、情報処理装置100は、カーソル310が表示された状態において、ダブルタップを検知した場合には、カーソル310で指定された位置に配置されたオブジェクト又はカーソル310で指定された位置が選択されたと判断する。そして、情報処理装置100は、タッチパネル101上の接触の検知がなくなると、カーソル310を非表示とする。ここで、タッチパネル101上の接触の検知がなくなる場合としては、ユーザが2本の指両方をタッチパネル101から離した場合、すなわち2本指のタッチアップが検知された場合である。図3(b)は、図3(a)に示すように、タッチパネル101上にカーソル310が表示された状態から、ユーザが2本指300,301をタッチしたまま画面右下方向にドラッグした状態を示している。このとき、カーソル310は、2本指300,301のドラッグ操作による2本指300,301のタッチ位置の変化に応じて、中点位置を移動する。
FIG. 3A shows a state in which the user multi-touches the
図3(c)は、図3(a)に示すように、タッチパネル101上にカーソル310が表示された状態から、1本の指301だけがタッチパネル101から離れた状態である。このとき、情報処理装置100は、タッチしている指300とカーソル310の位置関係を保持しつつ、カーソル310の表示を継続する。図3(d)は、図3(c)に示す状態からタッチパネル101上で指300がタッチされたまま画面右下方向にドラッグされた状態を示している。このとき、情報処理装置100は、タッチしている指300とカーソル310の位置関係を保持しつつ、カーソル310の表示位置を移動させる。さらにユーザは、指300をタッチしたまま指301をタッチパネル上でダブルタップすることにより、カーソル310の位置にあるオブジェクト又はカーソル310の位置を選択することができる。図3(d)に示すように、カーソル310の位置にオブジェクト320が表示されていれば、オブジェクト320を選択した状態となる。
FIG. 3C shows a state in which only one
図3(e)は、図3(d)に示す状態からタッチパネル101上で指300がタッチされたまま指301で画面左上方向にドラッグされた状態を示している。この場合、情報処理装置100は、タッチしている指300とカーソル310の位置関係を保持したまま、カーソル310と選択されたオブジェクト320の表示位置を移動させる。
FIG. 3E shows a state where the
このように、カーソル表示モードにおいては、情報処理装置100は、マルチタッチが検知された場合に、タッチされた2点の中点にカーソルを表示する。したがって、カーソルが指で隠れることがないので、ユーザは、快適な環境でユーザ操作を行うことができる。
Thus, in the cursor display mode, the
さらに、情報処理装置100は、片方の指を離してドラッグ操作が行われた場合に、タッチ中のタッチ位置とカーソルの位置関係を保ったままカーソル表示を移動させることができる。このため、ユーザが指で選択し難い画面端や隅にもカーソルを容易に移動させることができ、画面端や隅に位置するオブジェクトの操作も容易に行うことができる。例えば、画面右端にカーソルを移動させたい場合は、マルチタッチした2本指のうち右に位置する指を離して左に位置する指でドラッグすることで、画面端に指が当たることなく、カーソルを移動させることができる。
Furthermore, when a drag operation is performed by releasing one finger, the
また、情報処理装置100は、カーソルを片方の指で操作しながらもう片方の指で画面をタッチすることで、マウス操作を模擬することができる。これにより、画面端や隅に表示されているオブジェクトを容易に選択、移動させることができる。また、情報処理装置100は、ユーザが片方の指を離したときにカーソルとタッチされている指の位置関係を決定することができる。したがって、突然、カーソルの位置が変更されることがないため、ユーザは違和感を抱くことなく、ユーザ操作を行うことができる。また、ユーザは、2点のタッチのうちいずれに対応する指を離すかを選択することにより、カーソル310と指の位置関係を希望に合わせて決定することができる。
The
以上のように、本実施形態に係る情報処理装置100は、2点へのタッチ入力が検知された場合に、2点の中点を入力位置とするユーザ操作を受け付けたと判断し、ユーザ操作に応じた処理(オブジェクトの選択やカーソル表示)を行う。ただし、情報処理装置100は、2点へのタッチ入力が検知された場合に、2点のタッチ位置に基づいて定まる位置を入力位置と判断すればよく、その位置は、2点の中点に限定されるものではない。例えば、情報処理装置100は、2点の間の任意の位置を入力位置と判断してもよい。
As described above, when the touch input to two points is detected, the
図4は、タッチパネル101の表示例を示す図である。タッチパネル101には、オブジェクト400、通常選択モードアイコン401、マルチ選択モードアイコン402、カーソル表示モードアイコン403、終了アイコン404が表示されている。オブジェクト400は、画面上で移動操作可能なフォルダやアプリケーション等のアイコンである。
FIG. 4 is a diagram illustrating a display example of the
各モードアイコン401,402,403が選択されると、情報処理装置100は、選択されたモードとタッチパネル101からのタッチ入力情報を基に各種処理を行う。具体的には、情報処理装置100は、通常選択モードアイコン401が選択された場合には、通常選択モードに操作モードを切り替える。同様に、情報処理装置100は、マルチ選択モードアイコン402が選択された場合には、マルチ選択モード、カーソル表示モードアイコン403が選択された場合には、カーソル表示モードに操作モードを切り替える。なお、他の例としては、情報処理装置100は、各モードアイコンを選択するのに替えて、マルチタッチの長押し等の特定のタッチ操作によって操作モードを切り替えてもよい。終了アイコン404が選択されると、情報処理装置100は、タッチ入力プログラムを終了させる。
When each
図5は、情報処理装置100による処理を示すフローチャートである。情報処理装置100のCPU105は、OSやタッチ入力プログラムを起動し、これらにしたがって各部を制御することで以下の処理を実現する。ステップS501において、情報処理装置100のCPU105は、操作モードの初期設定を行う。操作モードの初期値は通常選択モードとする。次に、ステップS502において、CPU105は、操作モードが通常選択モードであるか否かを判定する。通常選択モードの場合には(ステップS502でYes)、CPU105は、処理をステップS503へ進める。通常選択モードでない場合には(ステップS502でNo)、CPU105は、処理をステップS504へ進める。
FIG. 5 is a flowchart showing processing by the
ステップS504において、CPU105は、マルチ選択モードであるか否かを判定する。マルチ選択モードの場合には(ステップS504でYes)、CPU105は、処理をステップS505へ進める。マルチ選択モードでない場合には(ステップS504でNo)、CPU105は、処理をS506へ進める。ステップS506において、CPU105は、カーソル表示モードであるか否かを判定する。カーソル表示モードの場合には(ステップS506でYes)、CPU105は、処理をステップS507へ進める。カーソル表示モードでない場合には(ステップS506でNo)、CPU105は、処理をS508へ進める。
In step S504, the
ステップS503において、CPU105は、通常選択モード処理を行い、その後ステップS508へ処理を進める。通常選択モード処理の詳細については後述する。ステップS505において、CPU105は、マルチ選択モード処理を行い、その後ステップS508へ処理を進める。マルチ選択モード処理の詳細については後述する。ステップS507において、CPU105は、カーソル表示モード処理を行い、その後ステップS508へ処理を進める。カーソル表示モード処理の詳細については後述する。
In step S503, the
ステップS508において、CPU105は、モード変更指示を受け付けたか否かを判定する。CPU105は、タッチパネル101において操作モードアイコン401,402,403が選択された場合に、モード変更指示を受け付ける。モード変更指示を受け付けた場合には(ステップS508でYes)、CPU105は、処理をステップS509へ進める。モード変更指示を受け付けなかった場合には(ステップS508でNo)、CPU105は、処理をステップS510へ進める。
In step S508, the
ステップS509において、CPU105は、選択された操作モードアイコンに対応する操作モードに設定を変更し、ステップS502の処理に戻る。ステップS510において、CPU105は、終了指示を受け付けたか否かを判定する。CPU105は、タッチパネル101において終了アイコン404が選択された場合に、終了指示を受け付ける。終了指示を受け付けた場合には(ステップS510でYes)、CPU105は、本処理を終了する。終了指示を場合には(ステップS510でNo)、CPU105は、処理をS502へ進める。
In step S509, the
図6は、図5において説明した通常選択モード処理(ステップS503)における詳細な処理を示すフローチャートである。ステップS601において、CPU105は、タッチパネル101において物体の接触を検知したか否かを判定する。タッチパネル101において物体の接触を検知した場合には(ステップS601でYes)、CPU105は、処理をステップS602へ進める。物体の接触を検知しなかった場合には(ステップS601でNo)、CPU105は、処理をステップS601へ進める。
FIG. 6 is a flowchart showing detailed processing in the normal selection mode processing (step S503) described in FIG. In step S <b> 601, the
ステップS602において、CPU105は、ステップS601で検知した接触がシングルタッチであるか否かを判定する。シングルタッチの場合には(ステップS602でYes)、CPU105は、処理をステップS605へ進める。シングルタッチでない場合には(ステップS602でNo)、情報処理装置100は処理をステップS603へ進める。ステップS603において、CPU105は、ステップS601で検知した接触がマルチドラッグであれば、表示内容の拡大縮小を行うピンチイン・ピンチアウトの処理等を行う。
In step S602, the
一方、ステップS605において、CPU105は、ステップS601で検知した接触位置(入力位置)に対応する位置にオブジェクトが表示されているか否かを判定する。オブジェクトが表示されている場合には(ステップS605でYes)、CPU105は、処理をステップS606へ進める。オブジェクトが表示されていない場合には(ステップS606でNo)、CPU105は、処理をステップS601へ進める。
On the other hand, in step S605, the
ステップS606において、CPU105は、ステップS601で検知した接触がシングルタップであるか否かを判定する。シングルタップの場合には(ステップS606でYes)、CPU105は、処理をステップS607へ進める。シングルタップでない場合には(ステップS606でNo)、CPU105は、処理をステップS611へ進める。ステップS607において、CPU105は、ステップS601で検知した入力位置に対応する位置に表示されているオブジェクトを選択し、通常モード処理を終了する。
In step S606, the
ステップS611において、CPU105は、ステップS601で検知した接触がシングルドラッグであるか否かを判定する。シングルドラッグの場合には(ステップS611でYes)、CPU105は、処理をステップS612へ進める。シングルドラッグでない場合には(ステップS611でNo)、CPU105は、処理をステップS601へ進める。ステップS612において、CPU105は、ステップS601で検知した入力位置の移動に沿って、入力位置と同移動方向に同移動量だけオブジェクトを移動し、通常モード処理を終了する。
In step S611, the
図7は、図5において説明したマルチ選択モード処理(ステップS505)における詳細な処理を示すフローチャートである。ステップS701において、CPU105は、タッチパネル101において物体の接触を検知したか否かを判定する。タッチパネル101において物体の接触を検知した場合には(ステップS701でYes)、CPU105は、処理をステップS702へ進める。物体の接触を検知しなかった場合には(ステップS701でNo)、CPU105は、処理をステップS701へ進める。ステップS702において、CPU105は、S701で検知した接触がマルチタッチか否かを判定する。マルチタッチの場合には(ステップS702でYes)、CPU105は、処理をステップS703へ進める。マルチタッチでない場合には(ステップS702でNo)、CPU105は、処理をステップS720へ進める。ステップS720において、CPU105は、シングルタッチの処理を行う。シングルタッチの処理は、図6を参照しつつ説明した、S605〜S612の処理と同様である。
FIG. 7 is a flowchart showing detailed processing in the multi-selection mode processing (step S505) described in FIG. In step S <b> 701, the
ステップS703において、CPU105は、ステップS701で検知した2つの入力位置の中点を入力位置とするユーザ操作を受け付け(受付処理)、入力位置にオブジェクトが表示されているか否かを判定する。オブジェクトが表示されている場合には(ステップS703でYes)、CPU105は、処理をステップS704へ進める。オブジェクトが表示されていない場合には(ステップS703でNo)、CPU105は、処理をステップS701へ進める。ステップS704において、CPU105は、ステップS701で検知した接触がマルチタップであるか否かを判定する。マルチタップの場合には(ステップS704でYes)、CPU105は、処理をステップS705へ進める。マルチタップでない場合には(ステップS704でNo)、CPU105は、処理をステップS709へ進める。
In step S703, the
ステップS705において、CPU105は、ステップS701で検出した2つの接触箇所の中点に表示されているオブジェクトを選択する。次に、ステップS706において、CPU105は、ステップS705において選択されたオブジェクトが操作モードアイコンであるか否かを判定する。操作モードアイコンが選択された場合(ステップS706でYes)、CPU105は、処理をステップS707へ進める。操作モードアイコンでない場合には(ステップS706でNo)、CPU105は、処理をステップS708へ進める。ステップS707において、CPU105は、選択された操作モードアイコンに応じて操作モードを変更する。次に、S708において、CPU105は、ステップS705において選択されたオブジェクトが終了アイコンであるか否かを判定する。終了アイコンの場合には(ステップS708でYes)、CPU105は、マルチ選択モード処理を終了する。終了アイコンでない場合には(ステップS708でNo)、CPU105は、処理をステップS701へ進める。
In step S705, the
一方、ステップS709において、CPU105は、ステップS701で検知した接触がマルチドラッグであるか否かを判定する。マルチドラッグの場合には(ステップS709でYes)、CPU105は、処理をステップS710へ進める。マルチドラッグでない場合には(ステップS709でNo)、CPU105は、マルチ選択モード処理を終了する。ステップS710において、CPU105は、2つの入力位置の中点である選択位置の移動に沿って、選択位置と同移動方向に同移動量で、オブジェクトを移動させる。これは、図2(a)、図2(b)を参照しつつ説明した動作に対応する処理である。なお、ステップS705及びステップS710の処理は、ユーザ操作に応じた処理の一例である。
On the other hand, in step S709, the
ステップS711において、CPU105は、ステップS701でマルチタッチを検知した後、シングルタッチに変更になったか否かを判定する。シングルタッチに変更された場合には(ステップS711でYes)、CPU105は、処理をS712へ進める。シングルタッチに変更されていない場合には(ステップS711でNo)、処理をS715へ進める。ステップS712において、シングルタッチのタッチ位置(入力位置)とオブジェクトの位置関係を算出し、RAM103に保持する。
In step S711, the
次に、ステップS713において、CPU105は、シングルドラッグであるか否かを判定する。シングルドラッグの場合には(ステップS713でYes)、CPU105は、処理をステップS714へ進める。シングルドラッグでない場合には(ステップS711でNo)、CPU105は、マルチ選択モード処理を終了する。ステップS714において、CPU105は、入力位置とオブジェクトの位置関係を保ち、入力位置の移動に沿って、入力位置と同移動方向に同移動量でオブジェクトを移動させる。ステップS711〜ステップS715の処理は、図2(a)、図2(c)、図2(d)を参照しつつ説明した動作に対応する処理である。次に、ステップS715において、CPU105は、接触している指がタッチアップされたか否かを判定する。タッチアップを検知した場合には(ステップS715でYes)、CPU105は、マルチ選択モード処理を終了する。
Next, in step S713, the
図8は、図5において説明したカーソル表示モード処理(ステップS507)における詳細な処理を示すフローチャートである。ステップS801において、CPU105は、初期状態として、タッチパネル101上のカーソルを非表示とする。次に、ステップS802において、CPU105は、タッチパネル101において物体の接触を検知したか否かを判定する。物体の接触を検知した場合には(ステップS802でYes)、CPU105は、処理をステップS803へ進める。物体の接触を検知しなかった場合には(ステップS802でNo)、CPU105は、処理をステップS801へ進める。
FIG. 8 is a flowchart showing detailed processing in the cursor display mode processing (step S507) described in FIG. In step S801, the
ステップS803において、CPU105は、ステップS801で検知した接触がマルチタッチであるか否かを判定する。マルチタッチの場合には(ステップS803でYes)、CPU105は、処理をステップS804へ進める。マルチタッチでない場合には(ステップS803でNo)、CPU105は、処理をステップS821へ進める。ステップS821において、CPU105は、シングルタッチの処理を行う。シングルタッチの処理は、図6を参照しつつ説明した、S605〜S612の処理と同様である。
In step S803, the
ステップS804において、CPU105は、ステップS801で検知した2つの入力位置の中点を入力位置とするユーザ操作を受け付け(受付処理)、入力位置にカーソルを表示する。次に、ステップS805において、CPU105は、ステップS801で検知した接触がマルチタップであるか否かを判定する。マルチタップの場合には(ステップS805でYes)、CPU105は、処理をステップS806へ進める。マルチタップでない場合は(ステップS805でNo)、CPU105は、処理をステップS811へ進める。
In step S804, the
ステップS806において、CPU105は、ステップS804で表示したカーソル位置にオブジェクトが表示されているか否かを判定する。カーソル位置にオブジェクトが表示されている場合には(ステップS806でYes)、CPU105は、処理をステップS807へ進める。カーソル位置にオブジェクトが表示されていない場合には(ステップS806でNo)、CPU105は、カーソル表示モード処理を終了する。また、他の例としては、CPU105は、カーソル位置にオブジェクトが表示されていない場合には、カーソル位置の座標をRAM103に保存した後でカーソル表示モード処理を終了してもよい。ステップS807において、CPU105は、カーソル位置に表示されているオブジェクトを選択し、その後、カーソル表示モード処理を終了する。
In step S806, the
一方、ステップS811において、CPU105は、ステップS801で検知した接触がマルチドラッグであるか否かを判定する。マルチドラッグの場合には(ステップS811でYes)、CPU105は、処理をステップS812へ進める。マルチドラッグでない場合には(ステップS811でNo)、CPU105は、処理をステップS819へ進める。ステップS812において、CPU105は、2箇所の接触位置(入力位置)の中点の移動に沿って、中点位置と同移動方向に同移動量で、カーソルを移動させる。これは、図2(a)、図2(b)を参照しつつ説明した動作に対応する処理である。また、カーソルの位置にオブジェクトがある場合は、カーソルとともにオブジェクトも移動させる。なお、ステップS804、ステップ807、ステップS812の処理は、ユーザ操作に応じた処理の一例である。
On the other hand, in step S811, the
ステップS814おいて、CPU105は、ステップS801でマルチタッチを検知した後、シングルタッチに変更されたか否かを判定する。シングルタッチに変更された場合には(ステップS814でYes)、CPU105は、処理をステップS815へ進める。シングルタッチに変更されていない場合には(ステップS814でNo)、CPU105は、処理をステップS818へ進める。ステップS815において、CPU105は、シングルタッチの入力位置とカーソルの位置関係を算出し、RAM103に保持する。次に、ステップS816において、CPU105は、シングルドラッグであるか否かを判定する。シングルドラッグの場合には(ステップS816でYes)、CPU105は、処理をステップS817へ進める。シングルドラッグでない場合には(ステップS816でNo)、CPU105は、処理をステップS818へ進める。
In step S814, the
ステップS817において、CPU105は、入力位置とカーソルの位置関係を保ち、接触箇所の移動に沿って、入力位置と同移動方向に同移動量で、カーソルを移動させる。カーソルの位置にオブジェクトが存在する場合は、カーソルと共にオブジェクトも移動させる。ステップS815〜ステップS818の処理は、図3(a)、図3(c)、図3(d)、図3(e)を参照しつつ説明した動作に対応する処理である。次に、ステップS818において、CPU105は、接触している指がタッチアップされたか否かを判定する。タッチアップを検知した場合には(S818でYes)、CPU105は、処理をS819へ進める。タッチアップを検知しなかった場合には(ステップS818でNo)、CPU105は、処理をS817で進める。ステップS819において、CPU105は、カーソルを非表示にする。以上で、カーソル表示モード処理が終了する。
In step S817, the
以上のように、本実施形態に係るCPU105は、ユーザが指等の指示部材を使ってタッチパネル上で所望の位置を指定する場合に、タッチパネル上のいずれの領域であっても細やかに位置を指定することができる。
As described above, when the user designates a desired position on the touch panel using a pointing member such as a finger, the
なお、本実施形態の情報処理装置100の変更例としては、CPU105は、PC、PDA等の装置であってもよい。また、情報処理装置100は、デジタルカメラなどの撮像装置に搭載されてもよい。この場合、情報処理装置100は、メモリカード等のデジタルカメラが読み取り可能な記録媒体に記録された撮影画像を、デジタルカメラの有する背面液晶装置等のタッチパネルに再生表示する。また、情報処理装置100は、画像やテキスト、イラスト図形等のオブジェクトを表示可能な装置であってもよい。情報処理装置100は、例えば、PDA、携帯電話端末や携帯型の画像ビューワ、ディスプレイを備えるプリンタ装置、デジタルフォトフレーム、音楽プレーヤ、ゲーム機、電子ブックリーダー等であってもよい。
Note that as a modification of the
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。 Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined. Also, when a software program that realizes the functions of the above-described embodiments is supplied from a recording medium directly to a system or apparatus having a computer that can execute the program using wired / wireless communication, and the program is executed Are also included in the present invention.
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。 Accordingly, the program code itself supplied and installed in the computer in order to implement the functional processing of the present invention by the computer also realizes the present invention. That is, the computer program itself for realizing the functional processing of the present invention is also included in the present invention. In this case, the program may be in any form as long as it has a program function, such as an object code, a program executed by an interpreter, or script data supplied to the OS.
プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。
また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータはがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。
The recording medium for supplying the program may be, for example, a magnetic recording medium such as a hard disk or magnetic tape, an optical / magneto-optical storage medium, or a nonvolatile semiconductor memory.
As a program supply method, a computer program that forms the present invention is stored in a server on a computer network, and a connected client computer downloads and programs the computer program.
以上、上述した各実施形態によれば、ユーザによる細かな入力操作を実現することができる。 As mentioned above, according to each embodiment mentioned above, a fine input operation by a user is realizable.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
100 情報処理装置
101 タッチパネル
102 ROM
103 RAM
104 HDD
105 CPU
100
103 RAM
104 HDD
105 CPU
Claims (8)
前記ユーザ操作に応じた処理を行う処理手段と
を有することを特徴とする情報処理装置。 Accepting means for accepting a user operation having a position determined based on the two points and a position different from the two points as an input position when touch input to the two points on the input surface is detected;
An information processing apparatus comprising processing means for performing processing according to the user operation.
入力面上の2点へのタッチ入力が検知された場合に、前記2点に基づいて定まる位置であり、かつ前記2点と異なる位置を入力位置とするユーザ操作を受け付ける受付ステップと、
前記ユーザ操作に応じた処理を行う処理ステップと
を含むことを特徴とする情報処理方法。 An information processing method executed by an information processing apparatus,
An accepting step of accepting a user operation that is a position determined based on the two points and a position different from the two points as an input position when a touch input to the two points on the input surface is detected;
And a processing step of performing processing according to the user operation.
入力面上の2点へのタッチ入力が検知された場合に、前記2点に基づいて定まる位置であり、かつ前記2点と異なる位置を入力位置とするユーザ操作を受け付ける受付手段と、
前記ユーザ操作に応じた処理を行う処理手段と
して機能させるためのプログラム。 Computer
Accepting means for accepting a user operation having a position determined based on the two points and a position different from the two points as an input position when touch input to the two points on the input surface is detected;
A program for functioning as processing means for performing processing according to the user operation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015008087A JP2016133978A (en) | 2015-01-19 | 2015-01-19 | Information processor, information processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015008087A JP2016133978A (en) | 2015-01-19 | 2015-01-19 | Information processor, information processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016133978A true JP2016133978A (en) | 2016-07-25 |
Family
ID=56426386
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015008087A Pending JP2016133978A (en) | 2015-01-19 | 2015-01-19 | Information processor, information processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016133978A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018067068A (en) * | 2016-10-17 | 2018-04-26 | グリー株式会社 | Drawing processing method, drawing processing program and drawing processing device |
JP2018180596A (en) * | 2017-04-03 | 2018-11-15 | 株式会社東海理化電機製作所 | Input apparatus and operation determination method |
JP2019185160A (en) * | 2018-04-03 | 2019-10-24 | 富士通コンポーネント株式会社 | Touch panel controller |
-
2015
- 2015-01-19 JP JP2015008087A patent/JP2016133978A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018067068A (en) * | 2016-10-17 | 2018-04-26 | グリー株式会社 | Drawing processing method, drawing processing program and drawing processing device |
JP2018180596A (en) * | 2017-04-03 | 2018-11-15 | 株式会社東海理化電機製作所 | Input apparatus and operation determination method |
JP2019185160A (en) * | 2018-04-03 | 2019-10-24 | 富士通コンポーネント株式会社 | Touch panel controller |
JP7140528B2 (en) | 2018-04-03 | 2022-09-21 | 富士通コンポーネント株式会社 | touch panel controller |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11487426B2 (en) | Apparatus and method for cursor control and text selection and editing based on gesture-based touch inputs received in a virtual keyboard display area | |
EP2835731B1 (en) | Image display apparatus, image display method, and image display program | |
KR102090964B1 (en) | Mobile terminal for controlling icon displayed on touch screen and method therefor | |
US10379706B2 (en) | Device for and method of changing size of display window on screen | |
JP2022140510A (en) | Image processing apparatus, control method of image processing apparatus, and program | |
US20160378217A1 (en) | Input device, electronic apparatus for receiving signal from input device and controlling method thereof | |
JP2014038560A (en) | Information processing device, information processing method, and program | |
US10019148B2 (en) | Method and apparatus for controlling virtual screen | |
KR20140105331A (en) | Mobile terminal for controlling objects display on touch screen and method therefor | |
JP2015035092A (en) | Display controller and method of controlling the same | |
JP6399834B2 (en) | Information processing apparatus, information processing apparatus control method, and program | |
US9778733B2 (en) | Method of setting printing option through touch input and mobile device to perform same | |
JP5935081B2 (en) | INPUT CONTROL METHOD, COMPUTER, AND PROGRAM | |
JP2016133978A (en) | Information processor, information processing method and program | |
US10185469B1 (en) | Method and system for advancing through a sequence of items using a touch-sensitive component | |
KR102118091B1 (en) | Mobile apparatus having fuction of pre-action on object and control method thereof | |
JP6773977B2 (en) | Terminal device and operation control program | |
KR102157078B1 (en) | Method and apparatus for creating electronic documents in the mobile terminal | |
JP2015102946A (en) | Information processing apparatus, control method of information processing apparatus, and program | |
JP6467257B2 (en) | Information processing apparatus, information processing method, and program | |
CN110955340A (en) | Cursor control system and cursor control method | |
KR101165388B1 (en) | Method for controlling screen using different kind of input devices and terminal unit thereof | |
JP6722239B2 (en) | Information processing device, input method, and program | |
KR101136327B1 (en) | A touch and cursor control method for portable terminal and portable terminal using the same | |
JP7030527B2 (en) | Electronic devices, information processing methods, programs and storage media |