JP2014222379A - Information terminal, touch operation processing method, and program - Google Patents
Information terminal, touch operation processing method, and program Download PDFInfo
- Publication number
- JP2014222379A JP2014222379A JP2013101067A JP2013101067A JP2014222379A JP 2014222379 A JP2014222379 A JP 2014222379A JP 2013101067 A JP2013101067 A JP 2013101067A JP 2013101067 A JP2013101067 A JP 2013101067A JP 2014222379 A JP2014222379 A JP 2014222379A
- Authority
- JP
- Japan
- Prior art keywords
- touch sensor
- touch
- display
- touch operation
- information terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報端末、タッチ操作処理方法及びプログラムに関する。 The present invention relates to an information terminal, a touch operation processing method, and a program.
近年は、携帯電話等の携帯型情報処理端末が普及している。 In recent years, portable information processing terminals such as mobile phones have become widespread.
このような背景に関連する技術としては、様々なものが知られている(例えば、特許文献1参照。)。 Various techniques related to such a background are known (see, for example, Patent Document 1).
例えば、特許文献1には、携帯型情報処理端末による入力受付方法が記載されている。より具体的に説明すると、携帯型情報処理端末は、タッチパネルの表面を手前にして手で持った場合、ユーザの人差し指を操作キー上に位置させる。タッチセンサは、タップやダブルタップを検出する。操作キーは、連続接触操作や、連続半押し操作や、連続全押し操作を行うことによりベクトル情報を入力する。このように、この携帯型情報処理端末によっては、操作性を向上できる。
For example,
また、ゲーム機の操作を両手の指で行う技術がある。 There is also a technique for operating a game machine with fingers of both hands.
このような背景に関連する技術としては、様々なものが知られている(例えば、特許文献2参照。)。 Various techniques relating to such a background are known (see, for example, Patent Document 2).
例えば、特許文献2には、本体の前面に配置されたタッチパネルと、本体の背面に配置されたタッチパッドとを備えるテレビゲーム用の端末装置が記載されている。より具体的に説明すると、端末装置は、本体の横持ち状態において、親指で表面のタッチパネルを操作し、他の指で裏面のタッチパッドを操作する。このように、この端末装置によっては、入力操作性を良好とし、多様な操作入力に対応可能である。
For example,
特許文献1、2に記載の技術によっては、オブジェクトの移動と画面スクロールの使い分け、全画面スクロールと一部画面スクロールの使い分けを簡単に行うことができない。これらの使い分けを一つのタッチセンサでやるには、使い分けそれぞれについて操作方法を決める必要がある。しかしながら、ユーザは、操作方法が直感的でない場合、その方法を覚えていられないことが多い。また、ユーザは、操作方法が増えると、特にモバイル機器の場合は、操作が困難になりがちで、両手を使わざるを得ない場合もある。このように、特許文献1、2に記載の技術によっては、簡単、且つ、直感的に操作することができない。
Depending on the technologies described in
本発明の目的は、上述した課題を解決する情報端末、タッチ操作処理方法及びプログラムを提供することにある。 The objective of this invention is providing the information terminal, the touch operation processing method, and program which solve the subject mentioned above.
上記課題を解決するために、本発明の第1の形態によると、情報端末であって、表示部と、タッチ操作を検出する第1タッチセンサと、タッチ操作を検出する第2タッチセンサと、第1タッチセンサへのタッチ操作を検出することにより第1処理を行い、第1タッチセンサへのタッチ操作を検出し、且つ、第2タッチセンサへのタッチ操作を検出することにより、第1処理に代えて第1処理と関連性を有する第2処理を行う処理部とを備え、処理部は、第2タッチセンサへのタッチ操作によりオブジェクトを指定しながら、第1タッチセンサによる表示部におけるオブジェクトを移動させるタッチ操作に基づいてオブジェクトを移動させる。 In order to solve the above-described problem, according to a first aspect of the present invention, an information terminal is a display unit, a first touch sensor that detects a touch operation, a second touch sensor that detects a touch operation, A first process is performed by detecting a touch operation on the first touch sensor, a touch operation on the first touch sensor is detected, and a touch operation on the second touch sensor is detected. A processing unit that performs a second process having relevance to the first process, and the processing unit specifies an object by a touch operation on the second touch sensor, and an object in the display unit by the first touch sensor. The object is moved based on the touch operation for moving.
本発明の第2の形態によると、タッチ操作処理方法であって、情報端末に有する表示部の第1タッチセンサへのタッチ操作を検出することにより第1処理を行い、第1タッチセンサへのタッチ操作を検出し、且つ、情報端末に有する第2タッチセンサへのタッチ操作を検出することにより、第1処理に代えて第1処理と関連性を有する第2処理を行うとともに、第2タッチセンサへのタッチ操作によりオブジェクトを指定しながら、第1タッチセンサによる表示部におけるオブジェクトを移動させるタッチ操作に基づいてオブジェクトを移動させる処理段階を備える。 According to a second aspect of the present invention, there is provided a touch operation processing method, wherein the first process is performed by detecting a touch operation on the first touch sensor of the display unit included in the information terminal, and the first touch sensor is processed. By detecting the touch operation and detecting the touch operation to the second touch sensor included in the information terminal, the second process having the relevance to the first process is performed instead of the first process, and the second touch is performed. The method includes a processing stage of moving an object based on a touch operation of moving the object on the display unit by the first touch sensor while designating the object by a touch operation on the sensor.
本発明の第3の形態によると、プログラムであって、コンピュータを、情報端末に有する表示部の第1タッチセンサへのタッチ操作を検出することにより第1処理を行い、第1タッチセンサへのタッチ操作を検出し、且つ、情報端末に有する第2タッチセンサへのタッチ操作を検出することにより、第1処理に代えて第1処理と関連性を有する第2処理を行うとともに、第2タッチセンサへのタッチ操作によりオブジェクトを指定しながら、第1タッチセンサによる表示部におけるオブジェクトを移動させるタッチ操作に基づいてオブジェクトを移動させる処理部として機能させる。 According to the 3rd form of this invention, it is a program, Comprising: A computer performs a 1st process by detecting the touch operation to the 1st touch sensor of the display part which has in an information terminal, By detecting the touch operation and detecting the touch operation to the second touch sensor included in the information terminal, the second process having the relevance to the first process is performed instead of the first process, and the second touch is performed. While the object is designated by the touch operation on the sensor, the object is moved as a processing unit that moves the object based on the touch operation of moving the object on the display unit by the first touch sensor.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となり得る。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. Also, a sub-combination of these feature groups can also be an invention.
以上の説明から明らかなように、この発明によっては、簡単、且つ、直感的に操作することができる。 As is clear from the above description, the present invention can be operated simply and intuitively.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are described below. However, this is not always essential for the solution of the invention.
図1は、一実施形態に係る情報端末100のブロック構成の一例を示す。図1に示すように、情報端末100は、第1表示部101、第2表示部102、第1タッチセンサ103、第2タッチセンサ104、音声入力部105、音声出力部106、無線通信部107、制御部108、記憶部109を備える。制御部108は、表示制御部110、入力処理部111、音声処理部112、通信制御部113、処理部114、アプリケーション処理部115を備える。
FIG. 1 shows an example of a block configuration of an
情報端末100は、スマートフォンであって、ユーザ操作に応じてインターネットブラウジング(Internet Browsing)機能や電子メール機能等の各種機能を提供する。第1表示部101は、例えば液晶ディスプレイまたは有機EL(Organic Electro−Luminescence)ディスプレイ等の表示画面を有し、表示制御部110の制御に従って動画像や静止画像やテキスト(文字)等の各種画像を表示する。ここでいう表示画面とは、画像を表示するデバイスである。以下では、画像を表示するデバイスとしての画面と、デバイスに表示されている画像としての画面とを区別するために、画像を表示するデバイスを「表示画面」と称し、表示画面に表示されている画像を「画面画像」と称する。第1表示部101は、本発明における「表示部」の一例である。
The
第2表示部102は、例えば液晶ディスプレイまたは有機EL(Organic Electro−Luminescence)ディスプレイ等の表示画面を有し、表示制御部110の制御に従って動画像や静止画像やテキスト(文字)等の各種画像を表示する。
The
第1タッチセンサ103は、第1表示部101の表示画面に設けられ、ユーザのタッチ操作を受け付ける。すなわち、第1タッチセンサ103は、第1表示部101の表示画面とともにタッチパネルを構成する。第1タッチセンサ103は、第1表示部101の表示画面へのタッチ操作を検出する。そして、第1タッチセンサ103は、タッチ位置(表示画面におけるタッチされた位置)を示す信号を入力処理部111に出力する。
The
第2タッチセンサ104は、第2表示部102の表示画面に設けられ、ユーザのタッチ操作を受け付ける。すなわち、第2タッチセンサ104は、第2表示部102の表示画面とともにタッチパネルを構成する。第2タッチセンサ104は、情報端末100に有する図3に示す筐体120の裏面に設けられたタッチパッドのタッチセンサである。第2タッチセンサ104は、第2表示部102の表示画面へのタッチ操作を検出する。そして、第2タッチセンサ104は、タッチ位置を示す信号を入力処理部111に出力する。
The
音声入力部105は、マイクを有し、周囲の音を採取して音声信号に変換し、音声処理部112に出力する。音声出力部106は、スピーカを有し、音声処理部112からアナログの電気信号にて出力される音声信号を音声に変換して出力する。
The
無線通信部107は、無線基地局と通信を行うことにより、携帯電話通信網(通信事業者によって提供される携帯電話機用の無線通信ネットワーク)に接続する。具体的には、無線通信部107は、通信制御部113から出力される信号に対して変調処理を行って無線信号にて送信し、また、受信した無線信号に対して復調処理を行って通信制御部113に出力する。例えば、無線通信部107は、電子メールデータを無線信号にて送受信する。
The
制御部108は、情報端末100の各部を制御して各種機能を実行する。制御部108は、例えば、情報端末100に有するCPU(Central Proceessing Unit、中央処理装置)が、情報端末100に有する不図示の各種メモリからプログラムを読み出して実行することにより実現される。
The
表示制御部110は、第1表示部101と第2表示部102とを制御して、各種画像を各々に表示させる。具体的には、表示制御部110は、アプリケーション処理部115から出力される動画像データや静止画像データやテキストデータ等に基づいて画面表示用の信号を生成して第1表示部101に出力することにより第1表示部101に画面画像を表示させる。また、表示制御部110は、画面表示用の信号を生成して第2表示部102に出力することにより第2表示部102に画面画像を表示させる。
The
入力処理部111は、第1タッチセンサ103や第2タッチセンサ104への操作に応じた検出信号をアプリケーション処理部115に出力する。例えば、入力処理部111は、第1表示部101によって画像部品を表示している状態で、第1表示部101の表示画面におけるタッチ位置を示す信号が第1タッチセンサ103から出力されると、画像部品に対してタッチされたか否かを判定する。そして、入力処理部111は、画像部品にタッチされたと判定すると、タッチされた画像部品を示す情報を処理部114に出力する。なお、ここでいう画像部品とは、画面画像を構成する部品としての部分画像である。画像部品とは、例えば、アイコン(icon)や、画面画像中に表示されている動画像や静止画像等に該当する。なお、ここでいうアイコンは、ファイル、フォルダ、アプリケーションプログラムあるいは機能等、選択対象ないし指定対象となっている事物を象徴する画像である。
The
音声処理部112は、処理部114から出力される音声データを電気信号に変換して音声出力部106に出力することにより、音声出力部106に音声を出力させる。また、音声処理部112は、音声入力部105が音声を採取して出力した電気信号を音声データに変換して処理部114に出力する。
The
通信制御部113は、処理部114から出力されるデータに符号化等の処理を行って、無線通信部107に出力して変調させ、無線信号にて送信させる。また、通信制御部113は、無線通信部107が受信して復調した信号に、復号等の処理を行ってデータを抽出し、処理部114に出力する。例えば、通信制御部113は、処理部114から出力される電子メールデータに符号化等の処理を行って無線通信部107に出力し、また、無線通信部107が受信して復調した信号に復号等の処理を行って電子メールデータ等のデータを抽出して処理部114に出力する。
The
処理部114は、アプリケーションプログラムを実行して、インターネットブラウジング機能や電子メール機能等各種機能を提供する。処理部114は、第1タッチセンサ103がタッチ操作を検出することにより第1処理を行い、第1タッチセンサ103がタッチ操作を検出し、且つ、第2タッチセンサ104がタッチ操作を検出することにより第1処理に代えて、第1処理と関連性を有する第2処理を行う。
The
処理部114は、第1表示部101の表示する画面画像に画像部品が含まれている場合に、第1タッチセンサ103が、その画像部品の位置を変位させる操作としてのタッチ操作を検出すると、画面画像中における画像部品の位置を変位させる処理を、第1処理として行う。また、処理部114は、画面画像に画像部品が含まれている場合に、第1タッチセンサ103が、その画像部品の位置を変位させる操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104が、タッチ操作を検出すると、画面画像をスクロールさせる処理を、第2処理として行う。
When the screen image displayed on the
また、処理部114は、第1タッチセンサ103がユーザ認証要求操作としてのタッチ操作を検出するとユーザ認証を行い、認証に成功すると、第1処理として、所定のプログラムからの第1データへのアクセスを許可する処理を行う。そして、処理部114は、第1タッチセンサ103がユーザ認証要求操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104がタッチ操作を検出するとユーザ認証を行い、認証に成功すると、第2処理として、所定のプログラムからの第2データへのアクセスを許可する処理を行う。
Further, the
さらに、処理部114は、第1タッチセンサ103がスクロール操作としてのタッチ操作を検出すると、画面画像を、設定されているスクロール量でスクロールさせる処理を、第1処理として行う。また、処理部114は、第1タッチセンサ103がスクロール操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104がタッチ操作を検出すると、スクロール量の設定を変更する処理を、第2処理として行い、且つ、画面画像を、第2処理によって設定されているスクロール量でスクロールさせる処理を、第1処理として行う。
Furthermore, when the
加えて、処理部114は、第1タッチセンサ103がタッチ操作を検出すると第1処理を行い、第1タッチセンサ103がタッチ操作を検出し、且つ、第2タッチセンサ104がタッチ操作を検出し、且つ、第1タッチセンサ103または第2タッチセンサ104の少なくとも一方が複数箇所におけるタッチ操作を検出すると、第2処理に代えて第3処理を行う。第3処理とは、スクロールエンドまでのスクロール量の変更や、特別なシークレットデータの表示のことである。
In addition, the
更に加えて、処理部114は、第2タッチセンサ104へのタッチ操作によりオブジェクトを指定しながら、第1タッチセンサ103による第1表示部101におけるオブジェクトを移動させるタッチ操作に基づいてオブジェクトを移動させる処理を行う。
In addition, the
また、処理部114は、第2タッチセンサ104により特定領域を指定しながら、第1表示部101における第1タッチセンサ103のスクロールにより、特定領域内でスクロールする処理を行う。
In addition, the
そして、処理部114は、第2タッチセンサ104によりスクロールバーの位置を指定しながら、第1タッチセンサ103のスクロールにより第2タッチセンサ104の指定した位置までスクロールする処理を行う。
Then, the
記憶部109は、例えば、情報端末100に有する各種メモリの記憶領域にて実現され、各種データを記憶する。記憶部109は、電話帳情報を記憶する。また、記憶部109は、情報端末100に有するCPUが実行する各種プログラムを予め記憶している。
The
図2は、情報端末100を表面側から見た外形の概略を示す斜視図である。図2に示すように、情報端末100は、筐体120を備えている。筐体120の表面には、第1表示部101の表示画面及び第1タッチセンサ103に該当するタッチパネル式の表示画面と、音声入力部105のマイクと、音声出力部106のスピーカとが設けられている。
FIG. 2 is a perspective view showing an outline of the outer shape of the
図3は、情報端末100を裏面側から見た外形の概略を示す斜視図である。図3に示すように、情報端末100の筐体120の裏面には、第2表示部102の表示画面及び第2タッチセンサ104に該当するタッチパネル式の表示画面が設けられている。
FIG. 3 is a perspective view showing an outline of the outer shape of the
図4は、情報端末100を右手で把持する状態を情報端末100の表面側から見た斜視図である。図4に示すように、情報端末100は、ユーザが第1表示部101の表示画面の点P101を右手親指でタッチすると、第1タッチセンサ103は、そのタッチ操作を検出し、点P101の座標をタッチ位置として出力する。なお、点P101に関しては、小さな面積を有する領域を「点」と称する。例えば、第1タッチセンサ103は、メッシュ状の検出点を有し、これらの検出点のうち領域としての点P101に含まれるものの座標を出力する。後述する点P102及び第2タッチセンサ104は、同様にして、メッシュ状の検出点を有し、これらの検出点のうち領域としての点P102に含まれるものの座標を出力する。
FIG. 4 is a perspective view of the state in which the
図5は、情報端末100を右手で把持する状態における情報端末100の裏面側を情報端末100の表面側から見た透視図である。図5に示すように、情報端末100は、ユーザが第2表示部102の表示画面の点P102を右手人差し指でタッチすると、第2タッチセンサ104は、そのタッチ操作を検出し、点P102の座標をタッチ位置として出力する。
FIG. 5 is a perspective view of the back side of the
このように、ユーザは、情報端末100を片手でつまむように把持して、第1表示部101の表示画面と第2表示部102の表示画面とにタッチすることができ、第1タッチセンサ103と第2タッチセンサ104とは、これらのタッチ操作を検出する。なお、図4の点P101と図5の点P102とは、互いに対向する位置であってもよいし、ずれていてもよい。ただし、第1タッチセンサ103と第2タッチセンサ104とは、上記のタッチ操作に限らず、様々な形態で行われる第1表示部101の表示画面と第2表示部102の表示画面とへのタッチ操作を検出し得る。様々な形態とは、例えば、ユーザは、情報端末100を左手で把持し、右手人差し指で第1表示部101の表示画面へのタッチ操作を行い、左手人差し指で第2表示部102の表示画面へのタッチ操作を行うことである。この場合も、第1タッチセンサ103と第2タッチセンサ104とは、これらのタッチ操作を検出する。或いは、情報端末100は、筐体が折り畳み可能であり、筐体を開いた状態で、第1表示部101の表示画面と第2表示部102の表示画面とが前面側に上下に並んで配置されるようにしてもよい。この場合に、ユーザは、右手人差し指で第1表示部101の表示画面へのタッチ操作を行い、また、ユーザは、情報端末100を左手で把持して左手親指で第2表示部102の表示画面へのタッチ操作を行うことができる。この場合も、第1タッチセンサ103と第2タッチセンサ104とは、これらのタッチ操作を検出する。
In this way, the user can hold the
図6は、情報端末100の基本的な制御動作を説明するフローチャートである。図6に示すように、処理部114は、制御を開始すると、第1表示部101の表示画面における所定のタッチ操作を第1タッチセンサ103が検出したか否かを判定する(ステップS101)。処理部114は、ステップS101の判定結果が「NO」の場合、処理を終了する。処理部114は、ステップS101の判定結果が「YES」の場合、第2表示部102の表示画面へのタッチ操作を第2タッチセンサ104が検出したか否かを判定する(ステップS102)。処理部114は、ステップS102の判定結果が「NO」の場合、第1処理を行う(ステップS104)。そして、処理部114は、処理を終了する。処理部114は、ステップS102の判定結果が「YES」の場合、第2処理を行う(ステップS103)。或いは、処理部114は、第3処理を行う。そして、処理部114は、処理を終了する。
FIG. 6 is a flowchart for explaining a basic control operation of the
図7は、情報端末100の記憶部109が記憶する電話帳情報の例を示す説明図である。この電話帳情報には、情報端末100の電話帳表示機能において表示する氏名や電話番号等の情報が含まれている。また、電話帳情報は、情報端末100が着信履歴等の情報を表示する際に、電話番号を氏名に置き換えて表示するための情報として用いられる。
FIG. 7 is an explanatory diagram showing an example of phone book information stored in the
図7に示すように、電話帳情報は、表形式のデータ構造を有し、各行が1人分のデータに相当する。例えば、行L101、L102、L103には、それぞれAさん、Bさん、Cさんのデータが格納されている。この電話帳情報には、氏名や電話番号等のデータに加えて、シークレット指定の有無を示すフラグであるシークレットフラグが含まれている。このシークレットフラグの値「YES」は、シークレット指定されていることを示す。一方、シークレットフラグの値「NO」は、シークレット指定されていないことを示す。例えば、電話帳情報には、行L102において、Bさんのデータがシークレット指定されている。一方、電話帳情報には、行L101とL103とにおいて、それぞれAさんのデータとCさんのデータとは、シークレット指定されていない。これらシークレット指定の有無は、ユーザによって設定されている。 As shown in FIG. 7, the phone book information has a tabular data structure, and each row corresponds to data for one person. For example, the data of Mr. A, Mr. B, and Mr. C are stored in rows L101, L102, and L103, respectively. This telephone directory information includes a secret flag, which is a flag indicating whether or not a secret is designated, in addition to data such as a name and a telephone number. The value “YES” of the secret flag indicates that the secret is designated. On the other hand, the value “NO” of the secret flag indicates that the secret is not designated. For example, in the phone book information, Mr. B's data is designated as a secret in line L102. On the other hand, in the phone book information, the secrets of Mr. A's data and Mr. C's data are not designated in the rows L101 and L103, respectively. Whether or not these secrets are designated is set by the user.
図8は、情報端末100が通常モードにて電話帳表示機能を実行した場合の表示画像の例を示す説明図である。通常モードは、アプリケーションプログラムからの、シークレット指定されているデータへのアクセスを制限し、シークレット指定されていないデータへのアクセスを許可するモードである。
FIG. 8 is an explanatory diagram showing an example of a display image when the
電話帳表示のアプリケーションプログラムを実行する処理部114は、アクセス制限に従って、アクセスを許可されているデータを第1表示部101に表示させる。図8に示す例では、処理部114は、電話帳表示のアプリケーションプログラムからの、図7においてシークレット指定されていないAさんのデータおよびCさんのデータへのアクセスを許可しており、これらAさんのデータとCさんのデータとは、領域A111とA112とにそれぞれ表示される。一方、処理部114は、電話帳表示のアプリケーションプログラムからの、図7においてシークレット指定されているBさんのデータへのアクセスを制限している。このため、処理部114は、図8に示す画面画像にBさんのデータを表示しない。
The
図9は、情報端末100がシークレットモードにて電話帳表示機能を実行した場合の表示画面の例を示す説明図である。シークレットモードは、アプリケーションプログラムからの、シークレット指定されているデータへのアクセスと、シークレット指定されていないデータへのアクセスとを、いずれも許可するモードである。
FIG. 9 is an explanatory diagram illustrating an example of a display screen when the
図9に示すように、電話帳表示のアプリケーションプログラムを実行する処理部114は、シークレット指定されているデータと、シークレット指定されていないデータとのいずれも第1表示部101に表示させる。図9に示す例では、処理部114は、電話帳表示のアプリケーションプログラムからの、図7においてシークレット指定されていないAさんのデータおよびCさんのデータへのアクセスを許可している。同時に、処理部114は、図7においてシークレット指定されているBさんのデータへのアクセスを許可している。そして、表示制御部110は、これらAさんのデータとBさんのデータとCさんのデータとを、領域A121とA122とA123とにそれぞれ表示する。
As illustrated in FIG. 9, the
このとき、ユーザによって第2表示部102の第2タッチセンサ104へのタッチ操作を複数個所で行った場合、処理部114は、第2タッチセンサ104へのタッチ操作の数に応じてシークレット指定する秘密度を高いものして処理する。すなわち、処理部114は、第2タッチセンサ104へのタッチ操作の数を多くした場合、シークレット指定する秘密度を高く設定する。これにより、処理部114は、第2タッチセンサ104へのタッチ操作を1回行ってシークレット指定したBさん及びCさんのデータを表示しない。そして、処理部114は、第2タッチセンサ104への複数のタッチ操作により、超シークレット指定した他のデータを第1表示部101に表示する。
At this time, when the user performs a touch operation on the
図10は、情報端末100において第1表示部101が表示するユーザ認証を行う際の画面画像の例を示す説明図である。ユーザは、情報端末100の使用に際してユーザ認証を行うか否かを予め設定しており、記憶部109が設定内容を予め記憶している。そして、処理部114は、ユーザ認証を行う設定が為されている場合、電源を接続(ON)して起動する際や、一定時間(例えば10分間)使用されず休止モードとなった後に再度使用する際に第1表示部101にユーザ認証画面を表示させてパスワード入力を受け付ける処理を行う。
FIG. 10 is an explanatory diagram illustrating an example of a screen image when user authentication displayed on the
図10に示すように、入力処理部111は、第1表示部101によってユーザ認証画面を表示している状態において、「0」〜「9」等のアイコンへのタッチ操作(押ボタンの押下操作)によるパスワード入力操作が行われることによりタッチされたアイコンを検出する。そして、処理部114は、検出したアイコンに基づいて、入力されたパスワードを検出する。その後、処理部114は、ユーザによって「確定」の押ボタンのアイコンC101(以下、「確定アイコン」C101と称する。)へのタッチ操作が行われると、入力されたパスワードと、記憶部109の予め記憶しているパスワードとが同一か否かを判定することによりユーザ認証を行う。
As illustrated in FIG. 10, the
処理部114は、入力されたパスワードと、記憶部109の予め記憶するパスワードとが同一であると判定してユーザ認証に成功した場合、実行モードに遷移し、ユーザ操作に応じて、上述した電話帳表示機能など各種機能を実行する。処理部114は、実行モードに上記の通常モードとシークレットモードとを有し、ユーザ認証に成功した際、第2タッチセンサ104がタッチ操作を検出したか否かに応じていずれかのモードに遷移する。具体的には、処理部114は、第1タッチセンサ103が確定アイコンC201へのタッチ操作を検出した際に、第2タッチセンサ104が第2表示部102の表示画面へのタッチ操作を検出していれば、シークレットモードに遷移する。これに反して、処理部114は、第1タッチセンサ103が確定アイコンC201へのタッチ操作を検出した際に、第2タッチセンサ104が第2表示部102の表示画面へのタッチ操作を検出していなければ、通常モードに遷移する。
If the
一方、処理部114は、ユーザ認証に失敗した場合、すなわち、入力されたパスワードと、記憶部109の予め記憶するパスワードとが異なると判定した場合、休止モードに遷移し、パスワード入力を再度の待ち受ける。
On the other hand, when the user authentication fails, that is, when it is determined that the input password is different from the password stored in advance in the
ここで、処理部114は、通常モードへの遷移とシークレットモードへの遷移とが、各種機能を実行する際の2つの処理モードの例である。すなわち、通常モードへの遷移とシークレットモードへの遷移とは、各種機能を、実行要求を受け付けるよう設定する処理によって、その機能のアプリケーションプログラムからの、シークレット設定されていないデータへのアクセスを許可する処理を行う点で共通する。一方、通常モードへの遷移とシークレットモードへの遷移とは、シークレット設定されているデータへのアクセスを許可する処理(設定)を行うか否かにおいて異なる。そして、シークレット設定されていないデータは、第1データに該当し、シークレット設定されていないデータとシークレット設定されているデータとの両方を含むデータは、第2データに該当する。また、アプリケーションプログラムからの第1データへのアクセスを許可する処理は、第1処理に該当し、アプリケーションプログラムからの第2データへのアクセスを許可する処理は、第2処理に該当する。この第1処理と第2処理とは、アプリケーションプログラムからのデータへのアクセスを許可する点で関連性を有し、アクセスを許可するデータにおいて互いに異なる。
Here, the
図11は、情報端末100において画像部品の位置を変位させた場合の画面画像の例を示す説明図であり、図11(a)は、画像部品の位置を変位させる前の第1表示部101の画面画像を示し、図11(b)は、画像部品の位置を変位させた後の第1表示部101の画面画像を示す。図11(a)の画面画像には、画像部品の一例であるアイコンC201と、画面画像のスクロール位置(表示対象の画像全体における画面画像の位置)を示す本発明の「スクロールバー」の一例であるスライドバーG101とが示されている。また、図11(b)の画面画像は、図11(a)の画面画像と比較すると、画面画像中におけるアイコンC201の位置が変位している。一方、図11(b)における画面画像のスクロール位置は、図11(a)におけるスクロール位置と同じである。このため、アイコンC201の表示位置が変位し、一方、図11図(b)におけるスライドバーG101の位置は、図11(a)におけるスライドバーG101の位置と同じになっている。
FIG. 11 is an explanatory diagram illustrating an example of a screen image when the position of the image component is displaced in the
処理部114は、第1タッチセンサ103によって画像部品C201の位置を変位させる操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出していない場合に処理を行う。より具体的には、入力処理部111は、画像部品C201の位置を変位させる操作として、画像部品C201のドラグ・アンド・ドロップ(Drug And Drop)が行われると、第1タッチセンサ103がタッチ位置を所定の時間間隔で順次検出する。そして、入力処理部111は、画像部品C201をドラグ・アンド・ドロップしたことを示す情報と、タッチ位置を示す情報とを、処理部114に順次出力する。そして、処理部114は、入力処理部111から出力された情報に基づいて、画面画像内における画像部品C201の位置の指示を、表示制御部110に順次出力する。そして、表示制御部110は、処理部114から出力された指示に従って、第1表示部101の画面画像内における画像部品C201の位置を順次変位させる。
The
ここで、情報端末100は、画像部品C201の位置を変位させる操作として様々な操作を用いることができる。情報端末100は、例えば、上記のように、画像部品C201をドラグ・アンド・ドロップする操作、すなわち、図11(a)の画面画像において、画像部品C201に指をタッチし、表示画面に指をタッチさせたまま、図11(b)の画面画像における画像部品C201の位置(移動させたい位置)まで指を移動させて表示画面から離す操作を用いることができる。或いは、情報端末100は、画像部品をフリック(Flick)する操作、すなわち、図11(a)の画面画像において、画像部品C201に指をタッチし、その指で画像部品C201をはじくように、図11(b)の画面画像における画像部品C201の位置に向けて(移動させたい向きに向けて)その指で表示画面を擦る操作など、ドラグ・アンド・ドロップ以外の操作を用いるようにしてもよい。
Here, the
図12は、情報端末100において画面画像をスクロールさせた場合の画面画像の例を示す説明図であり、図12(a)は、画像部品の位置を変位させる前の第1表示部101の画面画像を示し、図12(b)は、画像部品の位置を変位させた後の第1表示部101の画面画像を示す。なお、図12(b)における画面画像では、スクロール位置は、図12(a)におけるスクロール位置から変位しており、この点で図11(b)の場合と異なる。このため、図12(b)におけるスライドバーG101の位置は、図12(a)におけるスライドバーの位置から変位している。すなわち、図11に示したアイコンの移動処理と、図12に示すスクロール処理とは、アイコンの表示位置を移動させる点で互いに関連性を有する。一方、図11に示したアイコンの移動処理と、図12に示すスクロール処理とは、アイコンのみを移動させるか、あるいは、表示画面の表示する画像全体を移動させるかにおいて互いに異なる。
FIG. 12 is an explanatory diagram illustrating an example of a screen image when the screen image is scrolled in the
処理部114は、第1タッチセンサ103によって画像部品C201の位置を変位させる操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出している場合に処理を行う。より具体的には、入力処理部111は、画像部品C201のドラグ・アンド・ドロップが行われると、第1タッチセンサ103がタッチ位置を順次検出し、画像部品C201をドラグ・アンド・ドロップしたことを示す情報と、タッチ位置を示す情報とを、処理部114に順次出力する。また、入力処理部111は、画像部品C201のドラグ・アンド・ドロップが行われる間、第2表示部102の表示画面がタッチされており、第2タッチセンサ104がタッチ位置を順次検出し、タッチ位置を示す情報を処理部114に順次出力する。
The
処理部114は、入力処理部111から出力される情報に基づいて、画面画像をスクロールさせる旨の指示(表示対象の画像のうち、画面画像として表示する部分の位置を示す情報)を、表示制御部110に順次出力する。そして、表示制御部110は、処理部114から出力される指示に従って、第1表示部101の画面画像をスクロールさせる。
Based on the information output from the
このとき、入力処理部111は、第2表示部102の第2タッチセンサ104へのタッチ操作が複数個所で行われた場合、処理部114は、第3処理を行って、第2タッチセンサ104への1箇所でのタッチ操作を強調させることにより、第1表示部101の画面画像をスクロールエンドまで変位させる。
At this time, when the
ここで、図11における処理と図12における処理とは、画像部品C201の位置を変位させる処理における2つの処理モードの例である。すなわち、図11における処理と図12における処理とは、画像部品C201の表示位置を変位させる処理を行う点で関連性を有し、画像部品C201のみを移動させるか、あるいは、表示画面の表示する画像全体を移動させるかにおいて、互いに異なる。そして、2つの処理モードは、画像部品C201の表示位置を変位させる処理が第1処理に該当し、画面画像をスクロールさせる処理が第2処理に該当する。 Here, the processing in FIG. 11 and the processing in FIG. 12 are examples of two processing modes in the processing for displacing the position of the image component C201. That is, the process in FIG. 11 and the process in FIG. 12 are related in that the process of displacing the display position of the image component C201 is performed, and only the image component C201 is moved or the display screen is displayed. It differs from each other in whether the entire image is moved. In the two processing modes, the process of displacing the display position of the image component C201 corresponds to the first process, and the process of scrolling the screen image corresponds to the second process.
図13は、情報端末100においてスクロール前後の画面画像の例を示す説明図である。図13(a)は、スクロール前の第1表示部101の画面画像を示し、図13(b)は、スクロール後の、第1表示部101の画面画像を示す。図13において、第1表示部101の表示画面は、ウェブページを表示しており、また、表示画面の右側には、スクロール位置を示すスライドバーG301が表示されている。図13(a)と図13(b)とは、第1表示部101が、同一のウェブページを表示する場合の画面画像を示しているが、スクロール位置(表示対象のウェブページ内における画面画像の位置)が異なる。図13(b)は、図13(a)におけるスクロール位置から、表示画面の1つ分下にスクロールした場合の画面画像を示している。このため、図13(b)におけるスライドバーG301の位置は、図13(a)におけるスライドバーG301の位置から、スクロール量に応じて下がった位置となっている。
FIG. 13 is an explanatory diagram illustrating an example of screen images before and after scrolling in the
処理部114は、第1タッチセンサ103によってスクロール操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出していない場合に処理を行う。図13(a)、(b)に示すように、より具体的には、入力処理部111は、スクロール操作として、スライドバーG301の下側の領域F301へのタッチ操作(タップ)が行われると、第1タッチセンサ103によってタッチ位置を検出し、領域F301へのタッチ操作が行われたことを示す情報と、タッチ位置を示す情報とを、処理部114に出力する。そして、処理部114は、入力処理部111から出力された情報に基づいて、画面画像のスクロール位置を、表示画面の1つ分下にする旨の指示を、表示制御部110に出力する。そして、表示制御部110は、処理部114から出力された指示に従って、第1表示部101の画面画像のスクロール位置を、表示画面の1つ分下にする。
The
ここで、情報端末100は、スクロール操作として様々な操作を用いることができる。例えば、上記のように、情報端末100は、スライドバーG301の上または下の領域をタップする操作を用いることができる。あるいは、情報端末100は、第1表示部101が、上スクロールボタンのアイコンと、下スクロールボタンのアイコンとを表示し、これらのアイコンへのタッチ操作をスクロール操作として用いるようにしてもよい。
Here, the
図14は、情報端末100におけるスクロール前後の画面画像の他例を示す説明図であり、図14(a)は、スクロール前の第1表示部101の画面画像を示し、図14(b)は、スクロール後の第1表示部101の画面画像を示す。この場合、情報端末100は、図13の場合と同様、第1表示部101の表示画面は、ウェブページを表示しており、また、表示画面の右側には、スクロール位置を示すスライドバーG301を表示している。そして、図14(a)と図14(b)とにおいて、第1表示部101が、同一のウェブページを表示する場合の画面画像を示している点、および、スクロール位置(表示対象のウェブページ内における画面画像の位置)が異なる点も、図13の場合と同様である。ただし、図14では、スクロール量は、図13の場合と異なる。図14(b)は、図14(a)におけるスクロール位置から、表示画面の5つ分下にスクロールした場合の画面画像を示している。このため、図14(b)におけるスライドバーG301の位置は、図14(a)におけるスライドバーG301の位置から、スクロール量に応じて下がった位置となっている。そして、図14では、スクロール量は、図13の場合よりも多い分、スライドバーG301の下がる量も多くなっている。
FIG. 14 is an explanatory diagram showing another example of the screen image before and after scrolling in the
処理部114は、第1タッチセンサ103によってスクロール操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出している場合に処理を行う。より具体的には、入力処理部111は、スクロール操作として、スライドバーG301の下側の領域F301へのタッチ操作(タップ)が行われると、第1タッチセンサ103によってタッチ位置を検出し、領域F301へのタッチ操作が行われたことを示す情報と、タッチ位置を示す情報とを、処理部114に出力する。また、入力処理部111は、領域F301へのタッチ操作が行われた際、第2表示部102の表示画面がタッチされており、第2タッチセンサ104によってタッチ位置を検出し、タッチ位置を示す情報を処理部114に出力する。そして、処理部114は、入力処理部111から出力された情報に基づいて、画面画像のスクロール位置を、表示画面の5つ分下にする旨の指示を、表示制御部110に出力する。そして、表示制御部110は、処理部114から出力された指示に従って、第1表示部101の画面画像のスクロール位置を、表示画面の5つ分下にする。
The
ここで、図13における処理と図14における処理とは、第1表示部101の画面画像をスクロールさせる処理における2つの処理モードの例である。すなわち、図13における処理と図14における処理とは、第1表示部101の画面画像をスクロールさせる処理を行う点で関連性を有し、スクロール量において異なる。そして、処理部114は、第1表示部101の画面画像を表示画面の1つ分下にスクロールさせる処理を第1処理とし、第1表示部101の画面画像を第1処理と異なるスクロール量として表示画面の5つ分下にスクロールさせる処理を第2処理として処理する。
Here, the process in FIG. 13 and the process in FIG. 14 are examples of two processing modes in the process of scrolling the screen image of the
図15は、情報端末100におけるスクロール前後の画面画像の他例を示す説明図であり、図15(a)は、スクロール前の第1表示部101の画面画像を示し、図15(b)は、スクロール後の第1表示部101の画面画像を示し、図15(c)は、スクロール前の他の指の位置を示す。この場合、情報端末100は、第1表示部101の表示画面は、図14と同様に、本発明における「オブジェクト」の一例である地図を表示している。
FIG. 15 is an explanatory view showing another example of the screen image before and after scrolling in the
処理部114は、第1タッチセンサ103によってスクロール操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出している場合に処理を行う。図15(a)に示すように、より具体的には、処理部114は、第2表示部102の第2タッチセンサ104へのタッチ操作により第1表示部101における地図に対応した特定領域P202を指定する。図15(b)に示すように、処理部114は、第1表示部101の第1タッチセンサ103の移動量に応じて地図のスクロール量を設定する。図15(c)に示すように、処理部114は、第1表示部101の第1タッチセンサ103へのタッチ操作は、地図上ではなくてもよく、第1表示部101上の任意の位置でよい。このとき、処理部114は、第2表示部102の第2タッチセンサ104へのタッチ操作がない場合、第1表示部101の第1タッチセンサ103のスクロール量に対応して第1表示部101の地図をスクロールする。
The
図16は、情報端末100におけるスクロール前後の画面画像の他例を示す説明図であり、図16(a)は、スクロール前の第1表示部101の画面画像を示し、図16(b)は、スクロール後の第1表示部101の画面画像を示す。この場合、情報端末100は、第1表示部101の表示画面は、本発明における「オブジェクト」の一例である地図を表示している。
FIG. 16 is an explanatory view showing another example of the screen image before and after scrolling in the
処理部114は、第1タッチセンサ103によってスクロール操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出している場合に処理を行う。図16(a)、(b)に示すように、より具体的には、処理部114は、第2表示部102の第2タッチセンサ104へのタッチ操作により第1表示部101におけるスライドバーG401、G402に対応した位置を指定した場合、第1表示部101の第1タッチセンサ103による地図のスクロール量を、スライドバーG401、G402の範囲に設定して処理を行う。この場合、処理部114は、地図をスクロール移動させるのに代えて、スライドバーG401からスライドバーG402まで、地図を直接移動させる処理を行うこともできる。なお、スライドバーG401、402は、必ずしも必要ではなく、処理部114は、第2表示部102の第2タッチセンサ104の所定の位置への指定により地図の移動を直接行うことができる。
The
以上説明したように、情報端末100によれば、処理部114は、地図等のオブジェクトの移動と画面スクロールの使い分け、全画面スクロールと一部画面スクロールの使い分けの操作を簡単、且つ、直感的にすることができる。
As described above, according to the
また、情報端末100によれば、処理部114は、第2タッチセンサ104への特定のタッチ操作により第3処理を行うことにより、複数の使い分けを簡単に処理することができる。
Further, according to the
そして、情報端末100によれば、処理部114は、第3処理により、第1表示部101の画面画像をスクロールエンドまで変位させることにより、第2タッチセンサ104への1箇所でのタッチ操作を強調させることができる。
And according to the
そしてまた、情報端末100によれば、処理部114は、第3処理により、第2タッチセンサ104への複数のタッチ操作により、シークレット指定のレベルを超シークレットレベルまで上げてプライバシーの強化を図ることができる。
Further, according to the
さらに、情報端末100によれば、処理部114は、第2タッチセンサ104により特定領域を指定しながら、第1表示部101における第1タッチセンサ103のスクロールにより、特定領域内でスクロールすることにより、スクロールをし易くできる。
Furthermore, according to the
加えて、情報端末100によれば、処理部114は、第2タッチセンサ104によりスライドバーG401、G402の位置を指定しながら、第1タッチセンサ103のスクロールにより第2タッチセンサ104の指定した位置までスクロールするために、ユーザの取り扱い性を向上できる。
In addition, according to the
タッチ操作処理方法によれば、処理部114は、地図等のオブジェクトの移動と画面スクロールの使い分け、全画面スクロールと一部画面スクロールの使い分けの操作を簡単、且つ、直感的にすることができる。
According to the touch operation processing method, the
プログラムによれば、処理部114は、地図等のオブジェクトの移動と画面スクロールの使い分け、全画面スクロールと一部画面スクロールの使い分けの操作を簡単、且つ、直感的にすることができる。
According to the program, the
なお、情報端末、タッチ操作処理方法及びプログラムは、前述した第1の実施形態に限定するものでなく、適宜な変形や改良等が可能である。 The information terminal, the touch operation processing method, and the program are not limited to the first embodiment described above, and appropriate modifications and improvements can be made.
100 情報端末
101 第1表示部
102 第2表示部
103 第1タッチセンサ
104 第2タッチセンサ
105 音声入力部
106 音声出力部
107 無線通信部
108 制御部
109 記憶部
110 表示制御部
111 入力処理部
112 音声処理部
113 通信制御部
114 処理部
115 アプリケーション処理部
120 筐体
A111、A112、A121、A122、A123、F301 領域
C101 確定アイコン
C201 確定アイコン
G101、G301、G401、G402 スライドバー
L101、L102、L103 行
P102 点
P202 特定領域
100
Claims (8)
タッチ操作を検出する第1タッチセンサと、
タッチ操作を検出する第2タッチセンサと、
前記第1タッチセンサへのタッチ操作を検出することにより第1処理を行い、前記第1タッチセンサへのタッチ操作を検出し、且つ、前記第2タッチセンサへのタッチ操作を検出することにより、前記第1処理に代えて前記第1処理と関連性を有する第2処理を行う処理部と
を備え、
前記処理部は、前記第2タッチセンサへのタッチ操作によりオブジェクトを指定しながら、前記第1タッチセンサによる前記表示部における前記オブジェクトを移動させるタッチ操作に基づいて前記オブジェクトを移動させる
ことを特徴とする情報端末。 A display unit;
A first touch sensor for detecting a touch operation;
A second touch sensor for detecting a touch operation;
By performing a first process by detecting a touch operation on the first touch sensor, detecting a touch operation on the first touch sensor, and detecting a touch operation on the second touch sensor, A processing unit that performs a second process having relevance to the first process instead of the first process,
The processing unit moves the object based on a touch operation of moving the object on the display unit by the first touch sensor while designating the object by a touch operation on the second touch sensor. Information terminal.
ことを特徴とする請求項1に記載の情報端末。 The information terminal according to claim 1, wherein the processing unit performs a third process instead of the second process or in addition to the second process by a specific touch operation on the second touch sensor. .
ことを特徴とする請求項2に記載の情報端末。 The information terminal according to claim 2, wherein the third process is a change in a scroll amount up to a scroll end.
ことを特徴とする請求項2に記載の情報端末。 The information terminal according to claim 2, wherein the third process is a display of special secret data.
ことを特徴とする請求項1から4のいずれかに記載の情報端末。 The said processing part scrolls within the said specific area by the scroll of the said 1st touch sensor in the said display part, designating a specific area with the said 2nd touch sensor. Information terminal described in Crab.
ことを特徴とする請求項1から5のいずれかに記載の情報端末。 The said processing part is scrolled to the position designated by the said 2nd touch sensor by the scroll of the said 1st touch sensor, designating the position of a scroll bar by the said 2nd touch sensor. Information terminal in any one of.
を備えることを特徴とするタッチ操作処理方法。 A first process is performed by detecting a touch operation on the first touch sensor of the display unit included in the information terminal, a touch operation on the first touch sensor is detected, and a second touch sensor included in the information terminal By detecting a touch operation to the second process, the second process having the relevance to the first process is performed instead of the first process, and the object is designated by the touch operation to the second touch sensor. A touch operation processing method comprising: a step of moving the object based on a touch operation of moving the object on the display unit by the first touch sensor.
情報端末に有する表示部の第1タッチセンサへのタッチ操作を検出することにより第1処理を行い、前記第1タッチセンサへのタッチ操作を検出し、且つ、前記情報端末に有する第2タッチセンサへのタッチ操作を検出することにより、前記第1処理に代えて前記第1処理と関連性を有する第2処理を行うとともに、前記第2タッチセンサへのタッチ操作によりオブジェクトを指定しながら、前記第1タッチセンサによる前記表示部における前記オブジェクトを移動させるタッチ操作に基づいて前記オブジェクトを移動させる処理部
として機能させることを特徴とするプログラム。 Computer
A first process is performed by detecting a touch operation on the first touch sensor of the display unit included in the information terminal, a touch operation on the first touch sensor is detected, and a second touch sensor included in the information terminal By detecting a touch operation to the second process, the second process having the relevance to the first process is performed instead of the first process, and the object is designated by the touch operation to the second touch sensor. A program that functions as a processing unit that moves the object based on a touch operation of moving the object on the display unit by a first touch sensor.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013101067A JP2014222379A (en) | 2013-05-13 | 2013-05-13 | Information terminal, touch operation processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013101067A JP2014222379A (en) | 2013-05-13 | 2013-05-13 | Information terminal, touch operation processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014222379A true JP2014222379A (en) | 2014-11-27 |
Family
ID=52121885
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013101067A Pending JP2014222379A (en) | 2013-05-13 | 2013-05-13 | Information terminal, touch operation processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014222379A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10108225B2 (en) | 2015-09-15 | 2018-10-23 | Ricoh Company, Ltd. | Terminal device with back side operation features |
JP2020017215A (en) * | 2018-07-27 | 2020-01-30 | 京セラ株式会社 | Electronic device, control program, and display control method |
JP2020017218A (en) * | 2018-07-27 | 2020-01-30 | 京セラ株式会社 | Electronic device, control program, and display control method |
-
2013
- 2013-05-13 JP JP2013101067A patent/JP2014222379A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10108225B2 (en) | 2015-09-15 | 2018-10-23 | Ricoh Company, Ltd. | Terminal device with back side operation features |
JP2020017215A (en) * | 2018-07-27 | 2020-01-30 | 京セラ株式会社 | Electronic device, control program, and display control method |
JP2020017218A (en) * | 2018-07-27 | 2020-01-30 | 京セラ株式会社 | Electronic device, control program, and display control method |
JP7034856B2 (en) | 2018-07-27 | 2022-03-14 | 京セラ株式会社 | Electronic devices, control programs and display control methods |
US11354031B2 (en) | 2018-07-27 | 2022-06-07 | Kyocera Corporation | Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen |
JP7244231B2 (en) | 2018-07-27 | 2023-03-22 | 京セラ株式会社 | ELECTRONIC DEVICE, CONTROL PROGRAM AND DISPLAY CONTROL METHOD |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9753607B2 (en) | Electronic device, control method, and control program | |
JP5983503B2 (en) | Information processing apparatus and program | |
JP6368455B2 (en) | Apparatus, method, and program | |
US20100146451A1 (en) | Handheld terminal capable of supporting menu selection using dragging on touch screen and method of controlling the same | |
JP5611763B2 (en) | Portable terminal device and processing method | |
KR102253453B1 (en) | Method and device for creating a group | |
JP2011154555A (en) | Electronic apparatus | |
KR20150007048A (en) | Method for displaying in electronic device | |
JP2013127692A (en) | Electronic apparatus, delete program, and method for control delete | |
KR20140089224A (en) | Device and method for executing operation based on touch-input | |
KR20140036576A (en) | Method for displaying category and an electronic device thereof | |
US9274632B2 (en) | Portable electronic device, touch operation processing method, and program | |
JP5854928B2 (en) | Electronic device having touch detection function, program, and control method of electronic device having touch detection function | |
KR20130011905A (en) | Apparatus and method for character input through a scroll bar in a mobile device | |
KR20130084209A (en) | Electronic device and method of controlling the same | |
JPWO2011093230A1 (en) | Portable information terminal and key arrangement changing method thereof | |
JP2014149699A (en) | Mobile information terminal, control method, and program | |
KR101354841B1 (en) | Electronic Device With Touch Screen And Input Data Processing Method Thereof | |
JP2012174247A (en) | Mobile electronic device, contact operation control method, and contact operation control program | |
JP2014222379A (en) | Information terminal, touch operation processing method, and program | |
KR20100001017A (en) | Portable terminal capable of sensing proximity touch | |
JP5725903B2 (en) | Electronic device, contact operation control program, and contact operation control method | |
JP2011160375A (en) | Communication terminal | |
JP5586764B2 (en) | User interface device | |
KR20130023948A (en) | Apparatus and method for selecting icon in portable terminal |