JP2014222379A - Information terminal, touch operation processing method, and program - Google Patents

Information terminal, touch operation processing method, and program Download PDF

Info

Publication number
JP2014222379A
JP2014222379A JP2013101067A JP2013101067A JP2014222379A JP 2014222379 A JP2014222379 A JP 2014222379A JP 2013101067 A JP2013101067 A JP 2013101067A JP 2013101067 A JP2013101067 A JP 2013101067A JP 2014222379 A JP2014222379 A JP 2014222379A
Authority
JP
Japan
Prior art keywords
touch sensor
touch
display
touch operation
information terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013101067A
Other languages
Japanese (ja)
Inventor
謙一 北谷
Kenichi Kitatani
謙一 北谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2013101067A priority Critical patent/JP2014222379A/en
Publication of JP2014222379A publication Critical patent/JP2014222379A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information terminal that can be easily and intuitively operated.SOLUTION: An information terminal comprises: a display unit 101; a first touch sensor 103 for detecting a touch operation; a second touch sensor 104 for detecting a touch operation; and a processing unit 114 for performing first processing when a touch operation to the first touch sensor 103 is detected, and for performing, instead of the first processing, second processing having relevance with the first processing when a touch operation to the first touch sensor 103 is detected and a touch operation to the second touch sensor 104 is detected. The processing unit 114 moves an object on the basis of the touch operation to the first touch sensor 103 for moving the object on the display unit 101 while specifying the object on the basis of the touch operation to the second touch sensor 104.

Description

本発明は、情報端末、タッチ操作処理方法及びプログラムに関する。   The present invention relates to an information terminal, a touch operation processing method, and a program.

近年は、携帯電話等の携帯型情報処理端末が普及している。   In recent years, portable information processing terminals such as mobile phones have become widespread.

このような背景に関連する技術としては、様々なものが知られている(例えば、特許文献1参照。)。   Various techniques related to such a background are known (see, for example, Patent Document 1).

例えば、特許文献1には、携帯型情報処理端末による入力受付方法が記載されている。より具体的に説明すると、携帯型情報処理端末は、タッチパネルの表面を手前にして手で持った場合、ユーザの人差し指を操作キー上に位置させる。タッチセンサは、タップやダブルタップを検出する。操作キーは、連続接触操作や、連続半押し操作や、連続全押し操作を行うことによりベクトル情報を入力する。このように、この携帯型情報処理端末によっては、操作性を向上できる。   For example, Patent Document 1 describes an input reception method using a portable information processing terminal. More specifically, the portable information processing terminal places the index finger of the user on the operation key when the hand is held with the touch panel surface facing forward. The touch sensor detects a tap or a double tap. The operation key inputs vector information by performing a continuous contact operation, a continuous half-press operation, or a continuous full-press operation. Thus, operability can be improved depending on the portable information processing terminal.

また、ゲーム機の操作を両手の指で行う技術がある。   There is also a technique for operating a game machine with fingers of both hands.

このような背景に関連する技術としては、様々なものが知られている(例えば、特許文献2参照。)。   Various techniques relating to such a background are known (see, for example, Patent Document 2).

例えば、特許文献2には、本体の前面に配置されたタッチパネルと、本体の背面に配置されたタッチパッドとを備えるテレビゲーム用の端末装置が記載されている。より具体的に説明すると、端末装置は、本体の横持ち状態において、親指で表面のタッチパネルを操作し、他の指で裏面のタッチパッドを操作する。このように、この端末装置によっては、入力操作性を良好とし、多様な操作入力に対応可能である。   For example, Patent Document 2 describes a video game terminal device including a touch panel disposed on the front surface of the main body and a touch pad disposed on the back surface of the main body. More specifically, the terminal device operates the touch panel on the front surface with the thumb and operates the touch pad on the back surface with the other fingers when the main body is held sideways. Thus, depending on the terminal device, the input operability is good and various operation inputs can be handled.

国際公開第2011/145304号International Publication No. 2011/145304 特開2012−003305号公報JP 2012-003305 A

特許文献1、2に記載の技術によっては、オブジェクトの移動と画面スクロールの使い分け、全画面スクロールと一部画面スクロールの使い分けを簡単に行うことができない。これらの使い分けを一つのタッチセンサでやるには、使い分けそれぞれについて操作方法を決める必要がある。しかしながら、ユーザは、操作方法が直感的でない場合、その方法を覚えていられないことが多い。また、ユーザは、操作方法が増えると、特にモバイル機器の場合は、操作が困難になりがちで、両手を使わざるを得ない場合もある。このように、特許文献1、2に記載の技術によっては、簡単、且つ、直感的に操作することができない。   Depending on the technologies described in Patent Documents 1 and 2, it is not possible to easily perform the object movement and the screen scrolling properly, or the full screen scroll and the partial screen scrolling properly. In order to perform these usages with a single touch sensor, it is necessary to determine the operation method for each usage. However, if the operation method is not intuitive, the user often cannot remember the method. Further, when the number of operation methods increases, the user tends to be difficult to operate, particularly in the case of a mobile device, and may be forced to use both hands. As described above, the techniques described in Patent Documents 1 and 2 cannot be operated easily and intuitively.

本発明の目的は、上述した課題を解決する情報端末、タッチ操作処理方法及びプログラムを提供することにある。   The objective of this invention is providing the information terminal, the touch operation processing method, and program which solve the subject mentioned above.

上記課題を解決するために、本発明の第1の形態によると、情報端末であって、表示部と、タッチ操作を検出する第1タッチセンサと、タッチ操作を検出する第2タッチセンサと、第1タッチセンサへのタッチ操作を検出することにより第1処理を行い、第1タッチセンサへのタッチ操作を検出し、且つ、第2タッチセンサへのタッチ操作を検出することにより、第1処理に代えて第1処理と関連性を有する第2処理を行う処理部とを備え、処理部は、第2タッチセンサへのタッチ操作によりオブジェクトを指定しながら、第1タッチセンサによる表示部におけるオブジェクトを移動させるタッチ操作に基づいてオブジェクトを移動させる。   In order to solve the above-described problem, according to a first aspect of the present invention, an information terminal is a display unit, a first touch sensor that detects a touch operation, a second touch sensor that detects a touch operation, A first process is performed by detecting a touch operation on the first touch sensor, a touch operation on the first touch sensor is detected, and a touch operation on the second touch sensor is detected. A processing unit that performs a second process having relevance to the first process, and the processing unit specifies an object by a touch operation on the second touch sensor, and an object in the display unit by the first touch sensor. The object is moved based on the touch operation for moving.

本発明の第2の形態によると、タッチ操作処理方法であって、情報端末に有する表示部の第1タッチセンサへのタッチ操作を検出することにより第1処理を行い、第1タッチセンサへのタッチ操作を検出し、且つ、情報端末に有する第2タッチセンサへのタッチ操作を検出することにより、第1処理に代えて第1処理と関連性を有する第2処理を行うとともに、第2タッチセンサへのタッチ操作によりオブジェクトを指定しながら、第1タッチセンサによる表示部におけるオブジェクトを移動させるタッチ操作に基づいてオブジェクトを移動させる処理段階を備える。   According to a second aspect of the present invention, there is provided a touch operation processing method, wherein the first process is performed by detecting a touch operation on the first touch sensor of the display unit included in the information terminal, and the first touch sensor is processed. By detecting the touch operation and detecting the touch operation to the second touch sensor included in the information terminal, the second process having the relevance to the first process is performed instead of the first process, and the second touch is performed. The method includes a processing stage of moving an object based on a touch operation of moving the object on the display unit by the first touch sensor while designating the object by a touch operation on the sensor.

本発明の第3の形態によると、プログラムであって、コンピュータを、情報端末に有する表示部の第1タッチセンサへのタッチ操作を検出することにより第1処理を行い、第1タッチセンサへのタッチ操作を検出し、且つ、情報端末に有する第2タッチセンサへのタッチ操作を検出することにより、第1処理に代えて第1処理と関連性を有する第2処理を行うとともに、第2タッチセンサへのタッチ操作によりオブジェクトを指定しながら、第1タッチセンサによる表示部におけるオブジェクトを移動させるタッチ操作に基づいてオブジェクトを移動させる処理部として機能させる。   According to the 3rd form of this invention, it is a program, Comprising: A computer performs a 1st process by detecting the touch operation to the 1st touch sensor of the display part which has in an information terminal, By detecting the touch operation and detecting the touch operation to the second touch sensor included in the information terminal, the second process having the relevance to the first process is performed instead of the first process, and the second touch is performed. While the object is designated by the touch operation on the sensor, the object is moved as a processing unit that moves the object based on the touch operation of moving the object on the display unit by the first touch sensor.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となり得る。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. Also, a sub-combination of these feature groups can also be an invention.

以上の説明から明らかなように、この発明によっては、簡単、且つ、直感的に操作することができる。   As is clear from the above description, the present invention can be operated simply and intuitively.

一実施形態に係る情報端末100のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the information terminal 100 which concerns on one Embodiment. 情報端末100を表面側から見た外形の概略を示す斜視図である。It is a perspective view showing the outline of the outline which looked at information terminal 100 from the surface side. 情報端末100を裏面側から見た外形の概略を示す斜視図である。It is a perspective view showing the outline of the outline which looked at information terminal 100 from the back side. 情報端末100を右手で把持する状態を情報端末100の表面側から見た斜視図である。4 is a perspective view of the state in which the information terminal 100 is gripped with the right hand as viewed from the front side of the information terminal 100. FIG. 情報端末100を右手で把持する状態における情報端末100の裏面側を情報端末100の表面側から見た透視図である。4 is a perspective view of the back side of the information terminal 100 viewed from the front side of the information terminal 100 in a state where the information terminal 100 is held with the right hand. FIG. 制御動作を説明するフローチャートである。It is a flowchart explaining control operation. 情報端末100の記憶部109が記憶する電話帳情報の例を示す説明図である。It is explanatory drawing which shows the example of the telephone directory information which the memory | storage part 109 of the information terminal 100 memorize | stores. 情報端末100が通常モードにて電話帳表示機能を実行した場合の表示画像の例を示す説明図である。It is explanatory drawing which shows the example of a display image when the information terminal 100 performs the telephone directory display function in normal mode. 情報端末100がシークレットモードにて電話帳表示機能を実行した場合の表示画面の例を示す説明図である。It is explanatory drawing which shows the example of a display screen when the information terminal 100 performs the telephone directory display function in secret mode. 情報端末100において第1表示部101が表示するユーザ認証を行う際の画面画像の例を示す説明図である。4 is an explanatory diagram illustrating an example of a screen image when performing user authentication displayed on the first display unit 101 in the information terminal 100. FIG. 情報端末100において画像部品の位置を変位させた場合の画面画像の例を示す説明図であり、(a)は、画像部品の位置を変位させる前の第1表示部101の画面画像を示し、(b)は、画像部品の位置を変位させた後の第1表示部101の画面画像を示す。It is explanatory drawing which shows the example of the screen image at the time of displacing the position of an image component in the information terminal 100, (a) shows the screen image of the 1st display part 101 before displacing the position of an image component, (B) shows the screen image of the 1st display part 101 after displacing the position of an image component. 情報端末100において画面画像をスクロールさせた場合の画面画像の例を示す説明図であり、(a)は、画像部品の位置を変位させる前の第1表示部101の画面画像を示し、(b)は、画像部品の位置を変位させた後の第1表示部101の画面画像を示す。It is explanatory drawing which shows the example of the screen image at the time of scrolling a screen image in the information terminal 100, (a) shows the screen image of the 1st display part 101 before displacing the position of an image component, (b) ) Shows a screen image of the first display unit 101 after the position of the image component is displaced. 情報端末100においてスクロール前後の画面画像の例を示す説明図であり、(a)は、スクロール前の第1表示部101の画面画像を示し、(b)は、スクロール後の、第1表示部101の画面画像を示す。It is explanatory drawing which shows the example of the screen image before and behind scrolling in the information terminal 100, (a) shows the screen image of the 1st display part 101 before scrolling, (b) is the 1st display part after scrolling. 101 shows a screen image. 情報端末100におけるスクロール前後の画面画像の他例を示す説明図であり、(a)は、スクロール前の第1表示部101の画面画像を示し、(b)は、スクロール後の第1表示部101の画面画像を示す。It is explanatory drawing which shows the other example of the screen image before and behind scrolling in the information terminal 100, (a) shows the screen image of the 1st display part 101 before scrolling, (b) is the 1st display part after scrolling. 101 shows a screen image. 情報端末100におけるスクロール前後の画面画像の他例を示す説明図であり、(a)は、スクロール前の第1表示部101の画面画像を示し、(b)は、スクロール後の第1表示部101の画面画像を示し、(c)は、スクロール前の他の指の位置を示す。It is explanatory drawing which shows the other example of the screen image before and behind scrolling in the information terminal 100, (a) shows the screen image of the 1st display part 101 before scrolling, (b) is the 1st display part after scrolling. 101 shows a screen image 101, and (c) shows the position of another finger before scrolling. 情報端末100におけるスクロール前後の画面画像の他例を示す説明図であり、(a)は、スクロール前の第1表示部101の画面画像を示し、(b)は、スクロール後の第1表示部101の画面画像を示す。It is explanatory drawing which shows the other example of the screen image before and behind scrolling in the information terminal 100, (a) shows the screen image of the 1st display part 101 before scrolling, (b) is the 1st display part after scrolling. 101 shows a screen image.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the claimed invention, and all combinations of features described in the embodiments are described below. However, this is not always essential for the solution of the invention.

図1は、一実施形態に係る情報端末100のブロック構成の一例を示す。図1に示すように、情報端末100は、第1表示部101、第2表示部102、第1タッチセンサ103、第2タッチセンサ104、音声入力部105、音声出力部106、無線通信部107、制御部108、記憶部109を備える。制御部108は、表示制御部110、入力処理部111、音声処理部112、通信制御部113、処理部114、アプリケーション処理部115を備える。   FIG. 1 shows an example of a block configuration of an information terminal 100 according to an embodiment. As shown in FIG. 1, the information terminal 100 includes a first display unit 101, a second display unit 102, a first touch sensor 103, a second touch sensor 104, a voice input unit 105, a voice output unit 106, and a wireless communication unit 107. A control unit 108 and a storage unit 109. The control unit 108 includes a display control unit 110, an input processing unit 111, a voice processing unit 112, a communication control unit 113, a processing unit 114, and an application processing unit 115.

情報端末100は、スマートフォンであって、ユーザ操作に応じてインターネットブラウジング(Internet Browsing)機能や電子メール機能等の各種機能を提供する。第1表示部101は、例えば液晶ディスプレイまたは有機EL(Organic Electro−Luminescence)ディスプレイ等の表示画面を有し、表示制御部110の制御に従って動画像や静止画像やテキスト(文字)等の各種画像を表示する。ここでいう表示画面とは、画像を表示するデバイスである。以下では、画像を表示するデバイスとしての画面と、デバイスに表示されている画像としての画面とを区別するために、画像を表示するデバイスを「表示画面」と称し、表示画面に表示されている画像を「画面画像」と称する。第1表示部101は、本発明における「表示部」の一例である。   The information terminal 100 is a smartphone, and provides various functions such as an Internet browsing function and an electronic mail function according to a user operation. The first display unit 101 has a display screen such as a liquid crystal display or an organic EL (Organic Electro-Luminescence) display, for example, and displays various images such as moving images, still images, and text (characters) according to the control of the display control unit 110. indicate. The display screen here is a device that displays an image. In the following, in order to distinguish between a screen as a device that displays an image and a screen as an image displayed on the device, the device that displays an image is referred to as a “display screen” and is displayed on the display screen. The image is referred to as a “screen image”. The first display unit 101 is an example of the “display unit” in the present invention.

第2表示部102は、例えば液晶ディスプレイまたは有機EL(Organic Electro−Luminescence)ディスプレイ等の表示画面を有し、表示制御部110の制御に従って動画像や静止画像やテキスト(文字)等の各種画像を表示する。   The second display unit 102 has a display screen such as a liquid crystal display or an organic EL (Organic Electro-Luminescence) display, and displays various images such as moving images, still images, and text (characters) according to the control of the display control unit 110. indicate.

第1タッチセンサ103は、第1表示部101の表示画面に設けられ、ユーザのタッチ操作を受け付ける。すなわち、第1タッチセンサ103は、第1表示部101の表示画面とともにタッチパネルを構成する。第1タッチセンサ103は、第1表示部101の表示画面へのタッチ操作を検出する。そして、第1タッチセンサ103は、タッチ位置(表示画面におけるタッチされた位置)を示す信号を入力処理部111に出力する。   The first touch sensor 103 is provided on the display screen of the first display unit 101 and accepts a user's touch operation. That is, the first touch sensor 103 constitutes a touch panel together with the display screen of the first display unit 101. The first touch sensor 103 detects a touch operation on the display screen of the first display unit 101. Then, the first touch sensor 103 outputs a signal indicating a touch position (a touched position on the display screen) to the input processing unit 111.

第2タッチセンサ104は、第2表示部102の表示画面に設けられ、ユーザのタッチ操作を受け付ける。すなわち、第2タッチセンサ104は、第2表示部102の表示画面とともにタッチパネルを構成する。第2タッチセンサ104は、情報端末100に有する図3に示す筐体120の裏面に設けられたタッチパッドのタッチセンサである。第2タッチセンサ104は、第2表示部102の表示画面へのタッチ操作を検出する。そして、第2タッチセンサ104は、タッチ位置を示す信号を入力処理部111に出力する。   The second touch sensor 104 is provided on the display screen of the second display unit 102 and accepts a user's touch operation. That is, the second touch sensor 104 constitutes a touch panel together with the display screen of the second display unit 102. The second touch sensor 104 is a touch sensor of a touch pad provided on the back surface of the housing 120 shown in FIG. The second touch sensor 104 detects a touch operation on the display screen of the second display unit 102. Then, the second touch sensor 104 outputs a signal indicating the touch position to the input processing unit 111.

音声入力部105は、マイクを有し、周囲の音を採取して音声信号に変換し、音声処理部112に出力する。音声出力部106は、スピーカを有し、音声処理部112からアナログの電気信号にて出力される音声信号を音声に変換して出力する。   The audio input unit 105 has a microphone, collects ambient sounds, converts them into audio signals, and outputs them to the audio processing unit 112. The audio output unit 106 includes a speaker, converts the audio signal output from the audio processing unit 112 as an analog electric signal into audio, and outputs the audio.

無線通信部107は、無線基地局と通信を行うことにより、携帯電話通信網(通信事業者によって提供される携帯電話機用の無線通信ネットワーク)に接続する。具体的には、無線通信部107は、通信制御部113から出力される信号に対して変調処理を行って無線信号にて送信し、また、受信した無線信号に対して復調処理を行って通信制御部113に出力する。例えば、無線通信部107は、電子メールデータを無線信号にて送受信する。   The wireless communication unit 107 communicates with a wireless base station to connect to a mobile phone communication network (a mobile phone wireless communication network provided by a communication carrier). Specifically, the wireless communication unit 107 performs modulation processing on the signal output from the communication control unit 113 and transmits the signal as a wireless signal, and performs demodulation processing on the received wireless signal to perform communication. Output to the control unit 113. For example, the wireless communication unit 107 transmits and receives e-mail data using a wireless signal.

制御部108は、情報端末100の各部を制御して各種機能を実行する。制御部108は、例えば、情報端末100に有するCPU(Central Proceessing Unit、中央処理装置)が、情報端末100に有する不図示の各種メモリからプログラムを読み出して実行することにより実現される。   The control unit 108 controls each unit of the information terminal 100 to execute various functions. The control unit 108 is realized by, for example, a CPU (Central Processing Unit, central processing unit) included in the information terminal 100 reading out and executing programs from various memories (not illustrated) included in the information terminal 100.

表示制御部110は、第1表示部101と第2表示部102とを制御して、各種画像を各々に表示させる。具体的には、表示制御部110は、アプリケーション処理部115から出力される動画像データや静止画像データやテキストデータ等に基づいて画面表示用の信号を生成して第1表示部101に出力することにより第1表示部101に画面画像を表示させる。また、表示制御部110は、画面表示用の信号を生成して第2表示部102に出力することにより第2表示部102に画面画像を表示させる。   The display control unit 110 controls the first display unit 101 and the second display unit 102 to display various images. Specifically, the display control unit 110 generates a screen display signal based on moving image data, still image data, text data, or the like output from the application processing unit 115 and outputs the screen display signal to the first display unit 101. As a result, the screen image is displayed on the first display unit 101. In addition, the display control unit 110 displays a screen image on the second display unit 102 by generating a signal for screen display and outputting the signal to the second display unit 102.

入力処理部111は、第1タッチセンサ103や第2タッチセンサ104への操作に応じた検出信号をアプリケーション処理部115に出力する。例えば、入力処理部111は、第1表示部101によって画像部品を表示している状態で、第1表示部101の表示画面におけるタッチ位置を示す信号が第1タッチセンサ103から出力されると、画像部品に対してタッチされたか否かを判定する。そして、入力処理部111は、画像部品にタッチされたと判定すると、タッチされた画像部品を示す情報を処理部114に出力する。なお、ここでいう画像部品とは、画面画像を構成する部品としての部分画像である。画像部品とは、例えば、アイコン(icon)や、画面画像中に表示されている動画像や静止画像等に該当する。なお、ここでいうアイコンは、ファイル、フォルダ、アプリケーションプログラムあるいは機能等、選択対象ないし指定対象となっている事物を象徴する画像である。   The input processing unit 111 outputs a detection signal corresponding to an operation on the first touch sensor 103 or the second touch sensor 104 to the application processing unit 115. For example, the input processing unit 111 outputs a signal indicating the touch position on the display screen of the first display unit 101 from the first touch sensor 103 in a state where the image component is displayed on the first display unit 101. It is determined whether or not the image component has been touched. When the input processing unit 111 determines that the image component has been touched, the input processing unit 111 outputs information indicating the touched image component to the processing unit 114. Note that the image part here is a partial image as a part constituting the screen image. The image component corresponds to, for example, an icon (icon), a moving image or a still image displayed in the screen image, and the like. The icon here is an image symbolizing an object to be selected or designated, such as a file, folder, application program or function.

音声処理部112は、処理部114から出力される音声データを電気信号に変換して音声出力部106に出力することにより、音声出力部106に音声を出力させる。また、音声処理部112は、音声入力部105が音声を採取して出力した電気信号を音声データに変換して処理部114に出力する。   The audio processing unit 112 converts the audio data output from the processing unit 114 into an electrical signal and outputs the electric signal to the audio output unit 106, thereby causing the audio output unit 106 to output audio. In addition, the voice processing unit 112 converts the electrical signal output by the voice input unit 105 by collecting and outputting the voice into voice data and outputs the voice data to the processing unit 114.

通信制御部113は、処理部114から出力されるデータに符号化等の処理を行って、無線通信部107に出力して変調させ、無線信号にて送信させる。また、通信制御部113は、無線通信部107が受信して復調した信号に、復号等の処理を行ってデータを抽出し、処理部114に出力する。例えば、通信制御部113は、処理部114から出力される電子メールデータに符号化等の処理を行って無線通信部107に出力し、また、無線通信部107が受信して復調した信号に復号等の処理を行って電子メールデータ等のデータを抽出して処理部114に出力する。   The communication control unit 113 performs processing such as encoding on the data output from the processing unit 114, outputs the data to the wireless communication unit 107, modulates the data, and transmits the data as a wireless signal. In addition, the communication control unit 113 performs processing such as decoding on the signal received and demodulated by the wireless communication unit 107 to extract data, and outputs the data to the processing unit 114. For example, the communication control unit 113 performs processing such as encoding on the e-mail data output from the processing unit 114 and outputs it to the wireless communication unit 107, and decodes the signal received and demodulated by the wireless communication unit 107. The data such as e-mail data is extracted and output to the processing unit 114.

処理部114は、アプリケーションプログラムを実行して、インターネットブラウジング機能や電子メール機能等各種機能を提供する。処理部114は、第1タッチセンサ103がタッチ操作を検出することにより第1処理を行い、第1タッチセンサ103がタッチ操作を検出し、且つ、第2タッチセンサ104がタッチ操作を検出することにより第1処理に代えて、第1処理と関連性を有する第2処理を行う。   The processing unit 114 executes application programs and provides various functions such as an Internet browsing function and an electronic mail function. The processing unit 114 performs the first process when the first touch sensor 103 detects the touch operation, the first touch sensor 103 detects the touch operation, and the second touch sensor 104 detects the touch operation. Thus, instead of the first process, a second process having relevance to the first process is performed.

処理部114は、第1表示部101の表示する画面画像に画像部品が含まれている場合に、第1タッチセンサ103が、その画像部品の位置を変位させる操作としてのタッチ操作を検出すると、画面画像中における画像部品の位置を変位させる処理を、第1処理として行う。また、処理部114は、画面画像に画像部品が含まれている場合に、第1タッチセンサ103が、その画像部品の位置を変位させる操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104が、タッチ操作を検出すると、画面画像をスクロールさせる処理を、第2処理として行う。   When the screen image displayed on the first display unit 101 includes an image component, the processing unit 114 detects a touch operation as an operation for displacing the position of the image component. A process of displacing the position of the image component in the screen image is performed as the first process. In addition, when the image part is included in the screen image, the processing unit 114 detects the touch operation as an operation for displacing the position of the image part, and the second touch sensor. When 104 detects a touch operation, a process of scrolling the screen image is performed as a second process.

また、処理部114は、第1タッチセンサ103がユーザ認証要求操作としてのタッチ操作を検出するとユーザ認証を行い、認証に成功すると、第1処理として、所定のプログラムからの第1データへのアクセスを許可する処理を行う。そして、処理部114は、第1タッチセンサ103がユーザ認証要求操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104がタッチ操作を検出するとユーザ認証を行い、認証に成功すると、第2処理として、所定のプログラムからの第2データへのアクセスを許可する処理を行う。   Further, the processing unit 114 performs user authentication when the first touch sensor 103 detects a touch operation as a user authentication request operation, and when the authentication is successful, as a first process, access to first data from a predetermined program is performed. Process to allow Then, the processing unit 114 detects the touch operation as the user authentication request operation by the first touch sensor 103 and performs user authentication when the second touch sensor 104 detects the touch operation. As processing, processing for permitting access to the second data from a predetermined program is performed.

さらに、処理部114は、第1タッチセンサ103がスクロール操作としてのタッチ操作を検出すると、画面画像を、設定されているスクロール量でスクロールさせる処理を、第1処理として行う。また、処理部114は、第1タッチセンサ103がスクロール操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104がタッチ操作を検出すると、スクロール量の設定を変更する処理を、第2処理として行い、且つ、画面画像を、第2処理によって設定されているスクロール量でスクロールさせる処理を、第1処理として行う。   Furthermore, when the first touch sensor 103 detects a touch operation as a scroll operation, the processing unit 114 performs a process of scrolling the screen image by a set scroll amount as the first process. In addition, the processing unit 114 performs processing for changing the setting of the scroll amount when the first touch sensor 103 detects a touch operation as a scroll operation and the second touch sensor 104 detects a touch operation. And the process of scrolling the screen image by the scroll amount set by the second process is performed as the first process.

加えて、処理部114は、第1タッチセンサ103がタッチ操作を検出すると第1処理を行い、第1タッチセンサ103がタッチ操作を検出し、且つ、第2タッチセンサ104がタッチ操作を検出し、且つ、第1タッチセンサ103または第2タッチセンサ104の少なくとも一方が複数箇所におけるタッチ操作を検出すると、第2処理に代えて第3処理を行う。第3処理とは、スクロールエンドまでのスクロール量の変更や、特別なシークレットデータの表示のことである。   In addition, the processing unit 114 performs a first process when the first touch sensor 103 detects a touch operation, the first touch sensor 103 detects the touch operation, and the second touch sensor 104 detects the touch operation. When at least one of the first touch sensor 103 or the second touch sensor 104 detects a touch operation at a plurality of locations, the third process is performed instead of the second process. The third process is to change the scroll amount up to the scroll end or to display special secret data.

更に加えて、処理部114は、第2タッチセンサ104へのタッチ操作によりオブジェクトを指定しながら、第1タッチセンサ103による第1表示部101におけるオブジェクトを移動させるタッチ操作に基づいてオブジェクトを移動させる処理を行う。   In addition, the processing unit 114 moves the object based on the touch operation for moving the object on the first display unit 101 by the first touch sensor 103 while designating the object by the touch operation on the second touch sensor 104. Process.

また、処理部114は、第2タッチセンサ104により特定領域を指定しながら、第1表示部101における第1タッチセンサ103のスクロールにより、特定領域内でスクロールする処理を行う。   In addition, the processing unit 114 performs a process of scrolling in the specific region by scrolling the first touch sensor 103 in the first display unit 101 while designating the specific region by the second touch sensor 104.

そして、処理部114は、第2タッチセンサ104によりスクロールバーの位置を指定しながら、第1タッチセンサ103のスクロールにより第2タッチセンサ104の指定した位置までスクロールする処理を行う。   Then, the processing unit 114 performs a process of scrolling to the position designated by the second touch sensor 104 by scrolling the first touch sensor 103 while designating the position of the scroll bar by the second touch sensor 104.

記憶部109は、例えば、情報端末100に有する各種メモリの記憶領域にて実現され、各種データを記憶する。記憶部109は、電話帳情報を記憶する。また、記憶部109は、情報端末100に有するCPUが実行する各種プログラムを予め記憶している。   The storage unit 109 is realized by, for example, storage areas of various memories included in the information terminal 100 and stores various data. The storage unit 109 stores phone book information. The storage unit 109 stores in advance various programs executed by the CPU included in the information terminal 100.

図2は、情報端末100を表面側から見た外形の概略を示す斜視図である。図2に示すように、情報端末100は、筐体120を備えている。筐体120の表面には、第1表示部101の表示画面及び第1タッチセンサ103に該当するタッチパネル式の表示画面と、音声入力部105のマイクと、音声出力部106のスピーカとが設けられている。   FIG. 2 is a perspective view showing an outline of the outer shape of the information terminal 100 as viewed from the front side. As shown in FIG. 2, the information terminal 100 includes a housing 120. On the surface of the housing 120, a display screen of the first display unit 101 and a touch panel display screen corresponding to the first touch sensor 103, a microphone of the audio input unit 105, and a speaker of the audio output unit 106 are provided. ing.

図3は、情報端末100を裏面側から見た外形の概略を示す斜視図である。図3に示すように、情報端末100の筐体120の裏面には、第2表示部102の表示画面及び第2タッチセンサ104に該当するタッチパネル式の表示画面が設けられている。   FIG. 3 is a perspective view showing an outline of the outer shape of the information terminal 100 as viewed from the back side. As shown in FIG. 3, a touch screen display screen corresponding to the display screen of the second display unit 102 and the second touch sensor 104 is provided on the back surface of the housing 120 of the information terminal 100.

図4は、情報端末100を右手で把持する状態を情報端末100の表面側から見た斜視図である。図4に示すように、情報端末100は、ユーザが第1表示部101の表示画面の点P101を右手親指でタッチすると、第1タッチセンサ103は、そのタッチ操作を検出し、点P101の座標をタッチ位置として出力する。なお、点P101に関しては、小さな面積を有する領域を「点」と称する。例えば、第1タッチセンサ103は、メッシュ状の検出点を有し、これらの検出点のうち領域としての点P101に含まれるものの座標を出力する。後述する点P102及び第2タッチセンサ104は、同様にして、メッシュ状の検出点を有し、これらの検出点のうち領域としての点P102に含まれるものの座標を出力する。   FIG. 4 is a perspective view of the state in which the information terminal 100 is held with the right hand as viewed from the front side of the information terminal 100. As shown in FIG. 4, when the user touches a point P101 on the display screen of the first display unit 101 with the right thumb, the information terminal 100 detects the touch operation, and the coordinates of the point P101 are displayed. Is output as the touch position. Regarding the point P101, a region having a small area is referred to as a “point”. For example, the first touch sensor 103 has mesh detection points, and outputs the coordinates of the detection points included in the point P101 as a region. Similarly, a point P102 and a second touch sensor 104, which will be described later, have mesh-like detection points, and output the coordinates of those detection points included in the point P102 as a region.

図5は、情報端末100を右手で把持する状態における情報端末100の裏面側を情報端末100の表面側から見た透視図である。図5に示すように、情報端末100は、ユーザが第2表示部102の表示画面の点P102を右手人差し指でタッチすると、第2タッチセンサ104は、そのタッチ操作を検出し、点P102の座標をタッチ位置として出力する。   FIG. 5 is a perspective view of the back side of the information terminal 100 viewed from the front side of the information terminal 100 in a state where the information terminal 100 is held with the right hand. As shown in FIG. 5, when the user touches a point P102 on the display screen of the second display unit 102 with the right index finger, the information terminal 100 detects the touch operation, and the coordinates of the point P102 are detected. Is output as the touch position.

このように、ユーザは、情報端末100を片手でつまむように把持して、第1表示部101の表示画面と第2表示部102の表示画面とにタッチすることができ、第1タッチセンサ103と第2タッチセンサ104とは、これらのタッチ操作を検出する。なお、図4の点P101と図5の点P102とは、互いに対向する位置であってもよいし、ずれていてもよい。ただし、第1タッチセンサ103と第2タッチセンサ104とは、上記のタッチ操作に限らず、様々な形態で行われる第1表示部101の表示画面と第2表示部102の表示画面とへのタッチ操作を検出し得る。様々な形態とは、例えば、ユーザは、情報端末100を左手で把持し、右手人差し指で第1表示部101の表示画面へのタッチ操作を行い、左手人差し指で第2表示部102の表示画面へのタッチ操作を行うことである。この場合も、第1タッチセンサ103と第2タッチセンサ104とは、これらのタッチ操作を検出する。或いは、情報端末100は、筐体が折り畳み可能であり、筐体を開いた状態で、第1表示部101の表示画面と第2表示部102の表示画面とが前面側に上下に並んで配置されるようにしてもよい。この場合に、ユーザは、右手人差し指で第1表示部101の表示画面へのタッチ操作を行い、また、ユーザは、情報端末100を左手で把持して左手親指で第2表示部102の表示画面へのタッチ操作を行うことができる。この場合も、第1タッチセンサ103と第2タッチセンサ104とは、これらのタッチ操作を検出する。   In this way, the user can hold the information terminal 100 with one hand and touch the display screen of the first display unit 101 and the display screen of the second display unit 102, and the first touch sensor 103. The second touch sensor 104 detects these touch operations. Note that the point P101 in FIG. 4 and the point P102 in FIG. 5 may be positions facing each other or may be shifted. However, the first touch sensor 103 and the second touch sensor 104 are not limited to the touch operation described above, and are applied to the display screen of the first display unit 101 and the display screen of the second display unit 102 which are performed in various forms. A touch operation can be detected. For example, the user holds the information terminal 100 with the left hand, performs a touch operation on the display screen of the first display unit 101 with the right hand index finger, and moves to the display screen of the second display unit 102 with the left hand index finger. The touch operation is performed. Also in this case, the first touch sensor 103 and the second touch sensor 104 detect these touch operations. Alternatively, in the information terminal 100, the casing can be folded, and the display screen of the first display unit 101 and the display screen of the second display unit 102 are arranged vertically on the front side with the casing open. You may be made to do. In this case, the user performs a touch operation on the display screen of the first display unit 101 with the right hand index finger, and the user holds the information terminal 100 with the left hand and the display screen of the second display unit 102 with the left thumb. Touch operation can be performed. Also in this case, the first touch sensor 103 and the second touch sensor 104 detect these touch operations.

図6は、情報端末100の基本的な制御動作を説明するフローチャートである。図6に示すように、処理部114は、制御を開始すると、第1表示部101の表示画面における所定のタッチ操作を第1タッチセンサ103が検出したか否かを判定する(ステップS101)。処理部114は、ステップS101の判定結果が「NO」の場合、処理を終了する。処理部114は、ステップS101の判定結果が「YES」の場合、第2表示部102の表示画面へのタッチ操作を第2タッチセンサ104が検出したか否かを判定する(ステップS102)。処理部114は、ステップS102の判定結果が「NO」の場合、第1処理を行う(ステップS104)。そして、処理部114は、処理を終了する。処理部114は、ステップS102の判定結果が「YES」の場合、第2処理を行う(ステップS103)。或いは、処理部114は、第3処理を行う。そして、処理部114は、処理を終了する。   FIG. 6 is a flowchart for explaining a basic control operation of the information terminal 100. As illustrated in FIG. 6, when starting the control, the processing unit 114 determines whether or not the first touch sensor 103 has detected a predetermined touch operation on the display screen of the first display unit 101 (step S101). The process part 114 complete | finishes a process, when the determination result of step S101 is "NO". When the determination result in step S101 is “YES”, the processing unit 114 determines whether or not the second touch sensor 104 has detected a touch operation on the display screen of the second display unit 102 (step S102). If the determination result in step S102 is “NO”, the processing unit 114 performs the first process (step S104). Then, the processing unit 114 ends the process. When the determination result in step S102 is “YES”, the processing unit 114 performs the second process (step S103). Alternatively, the processing unit 114 performs a third process. Then, the processing unit 114 ends the process.

図7は、情報端末100の記憶部109が記憶する電話帳情報の例を示す説明図である。この電話帳情報には、情報端末100の電話帳表示機能において表示する氏名や電話番号等の情報が含まれている。また、電話帳情報は、情報端末100が着信履歴等の情報を表示する際に、電話番号を氏名に置き換えて表示するための情報として用いられる。   FIG. 7 is an explanatory diagram showing an example of phone book information stored in the storage unit 109 of the information terminal 100. This phone book information includes information such as a name and a phone number to be displayed in the phone book display function of the information terminal 100. Further, the phone book information is used as information for displaying the information by replacing the telephone number with the name when the information terminal 100 displays information such as an incoming call history.

図7に示すように、電話帳情報は、表形式のデータ構造を有し、各行が1人分のデータに相当する。例えば、行L101、L102、L103には、それぞれAさん、Bさん、Cさんのデータが格納されている。この電話帳情報には、氏名や電話番号等のデータに加えて、シークレット指定の有無を示すフラグであるシークレットフラグが含まれている。このシークレットフラグの値「YES」は、シークレット指定されていることを示す。一方、シークレットフラグの値「NO」は、シークレット指定されていないことを示す。例えば、電話帳情報には、行L102において、Bさんのデータがシークレット指定されている。一方、電話帳情報には、行L101とL103とにおいて、それぞれAさんのデータとCさんのデータとは、シークレット指定されていない。これらシークレット指定の有無は、ユーザによって設定されている。   As shown in FIG. 7, the phone book information has a tabular data structure, and each row corresponds to data for one person. For example, the data of Mr. A, Mr. B, and Mr. C are stored in rows L101, L102, and L103, respectively. This telephone directory information includes a secret flag, which is a flag indicating whether or not a secret is designated, in addition to data such as a name and a telephone number. The value “YES” of the secret flag indicates that the secret is designated. On the other hand, the value “NO” of the secret flag indicates that the secret is not designated. For example, in the phone book information, Mr. B's data is designated as a secret in line L102. On the other hand, in the phone book information, the secrets of Mr. A's data and Mr. C's data are not designated in the rows L101 and L103, respectively. Whether or not these secrets are designated is set by the user.

図8は、情報端末100が通常モードにて電話帳表示機能を実行した場合の表示画像の例を示す説明図である。通常モードは、アプリケーションプログラムからの、シークレット指定されているデータへのアクセスを制限し、シークレット指定されていないデータへのアクセスを許可するモードである。   FIG. 8 is an explanatory diagram showing an example of a display image when the information terminal 100 executes the telephone directory display function in the normal mode. The normal mode is a mode that restricts access from the application program to data designated by the secret and permits access to data not designated by the secret.

電話帳表示のアプリケーションプログラムを実行する処理部114は、アクセス制限に従って、アクセスを許可されているデータを第1表示部101に表示させる。図8に示す例では、処理部114は、電話帳表示のアプリケーションプログラムからの、図7においてシークレット指定されていないAさんのデータおよびCさんのデータへのアクセスを許可しており、これらAさんのデータとCさんのデータとは、領域A111とA112とにそれぞれ表示される。一方、処理部114は、電話帳表示のアプリケーションプログラムからの、図7においてシークレット指定されているBさんのデータへのアクセスを制限している。このため、処理部114は、図8に示す画面画像にBさんのデータを表示しない。   The processing unit 114 that executes the application program for displaying the phone book causes the first display unit 101 to display data that is permitted to be accessed in accordance with the access restriction. In the example illustrated in FIG. 8, the processing unit 114 permits access from the phone book display application program to the data of Mr. A and the data of Mr. C that are not designated as secrets in FIG. 7. And data of Mr. C are displayed in areas A111 and A112, respectively. On the other hand, the processing unit 114 restricts access to the data of Mr. B designated as the secret in FIG. 7 from the application program for displaying the phone book. Therefore, the processing unit 114 does not display Mr. B's data on the screen image shown in FIG.

図9は、情報端末100がシークレットモードにて電話帳表示機能を実行した場合の表示画面の例を示す説明図である。シークレットモードは、アプリケーションプログラムからの、シークレット指定されているデータへのアクセスと、シークレット指定されていないデータへのアクセスとを、いずれも許可するモードである。   FIG. 9 is an explanatory diagram illustrating an example of a display screen when the information terminal 100 executes the telephone directory display function in the secret mode. The secret mode is a mode that permits both access to data designated by the secret and access to data not designated by the secret from the application program.

図9に示すように、電話帳表示のアプリケーションプログラムを実行する処理部114は、シークレット指定されているデータと、シークレット指定されていないデータとのいずれも第1表示部101に表示させる。図9に示す例では、処理部114は、電話帳表示のアプリケーションプログラムからの、図7においてシークレット指定されていないAさんのデータおよびCさんのデータへのアクセスを許可している。同時に、処理部114は、図7においてシークレット指定されているBさんのデータへのアクセスを許可している。そして、表示制御部110は、これらAさんのデータとBさんのデータとCさんのデータとを、領域A121とA122とA123とにそれぞれ表示する。   As illustrated in FIG. 9, the processing unit 114 that executes the application program for displaying the phone book causes the first display unit 101 to display both the data designated as secret and the data not designated as secret. In the example shown in FIG. 9, the processing unit 114 permits access from the phone book display application program to the data of Mr. A and the data of Mr. C that are not designated as secrets in FIG. 7. At the same time, the processing unit 114 permits access to Mr. B's data designated as a secret in FIG. Then, the display control unit 110 displays the A's data, the B's data, and the C's data in the areas A121, A122, and A123, respectively.

このとき、ユーザによって第2表示部102の第2タッチセンサ104へのタッチ操作を複数個所で行った場合、処理部114は、第2タッチセンサ104へのタッチ操作の数に応じてシークレット指定する秘密度を高いものして処理する。すなわち、処理部114は、第2タッチセンサ104へのタッチ操作の数を多くした場合、シークレット指定する秘密度を高く設定する。これにより、処理部114は、第2タッチセンサ104へのタッチ操作を1回行ってシークレット指定したBさん及びCさんのデータを表示しない。そして、処理部114は、第2タッチセンサ104への複数のタッチ操作により、超シークレット指定した他のデータを第1表示部101に表示する。   At this time, when the user performs a touch operation on the second touch sensor 104 of the second display unit 102 at a plurality of locations, the processing unit 114 designates a secret according to the number of touch operations on the second touch sensor 104. Process with high confidentiality. That is, when the number of touch operations on the second touch sensor 104 is increased, the processing unit 114 sets the secret level for specifying the secret to be high. As a result, the processing unit 114 does not display the data of Mr. B and Mr. C who have performed the touch operation on the second touch sensor 104 once and designated the secret. Then, the processing unit 114 displays other data designated by the super secret on the first display unit 101 by a plurality of touch operations on the second touch sensor 104.

図10は、情報端末100において第1表示部101が表示するユーザ認証を行う際の画面画像の例を示す説明図である。ユーザは、情報端末100の使用に際してユーザ認証を行うか否かを予め設定しており、記憶部109が設定内容を予め記憶している。そして、処理部114は、ユーザ認証を行う設定が為されている場合、電源を接続(ON)して起動する際や、一定時間(例えば10分間)使用されず休止モードとなった後に再度使用する際に第1表示部101にユーザ認証画面を表示させてパスワード入力を受け付ける処理を行う。   FIG. 10 is an explanatory diagram illustrating an example of a screen image when user authentication displayed on the first display unit 101 in the information terminal 100 is performed. The user sets in advance whether or not to perform user authentication when using the information terminal 100, and the storage unit 109 stores the setting contents in advance. When the setting for performing the user authentication is made, the processing unit 114 is used again when the power supply is connected (ON) to start up, or after being in a sleep mode without being used for a certain period of time (for example, 10 minutes). When doing so, a process of displaying a user authentication screen on the first display unit 101 and receiving a password input is performed.

図10に示すように、入力処理部111は、第1表示部101によってユーザ認証画面を表示している状態において、「0」〜「9」等のアイコンへのタッチ操作(押ボタンの押下操作)によるパスワード入力操作が行われることによりタッチされたアイコンを検出する。そして、処理部114は、検出したアイコンに基づいて、入力されたパスワードを検出する。その後、処理部114は、ユーザによって「確定」の押ボタンのアイコンC101(以下、「確定アイコン」C101と称する。)へのタッチ操作が行われると、入力されたパスワードと、記憶部109の予め記憶しているパスワードとが同一か否かを判定することによりユーザ認証を行う。   As illustrated in FIG. 10, the input processing unit 111 performs a touch operation on an icon such as “0” to “9” (a push-button pressing operation) while the user authentication screen is displayed on the first display unit 101. ) To detect the touched icon. Then, the processing unit 114 detects the input password based on the detected icon. After that, when the user performs a touch operation on the icon C101 of the “confirmed” push button (hereinafter referred to as “confirmed icon” C101), the processing unit 114 stores the input password and the storage unit 109 in advance. User authentication is performed by determining whether or not the stored password is the same.

処理部114は、入力されたパスワードと、記憶部109の予め記憶するパスワードとが同一であると判定してユーザ認証に成功した場合、実行モードに遷移し、ユーザ操作に応じて、上述した電話帳表示機能など各種機能を実行する。処理部114は、実行モードに上記の通常モードとシークレットモードとを有し、ユーザ認証に成功した際、第2タッチセンサ104がタッチ操作を検出したか否かに応じていずれかのモードに遷移する。具体的には、処理部114は、第1タッチセンサ103が確定アイコンC201へのタッチ操作を検出した際に、第2タッチセンサ104が第2表示部102の表示画面へのタッチ操作を検出していれば、シークレットモードに遷移する。これに反して、処理部114は、第1タッチセンサ103が確定アイコンC201へのタッチ操作を検出した際に、第2タッチセンサ104が第2表示部102の表示画面へのタッチ操作を検出していなければ、通常モードに遷移する。   If the processing unit 114 determines that the input password is the same as the password stored in advance in the storage unit 109 and succeeds in user authentication, the processing unit 114 transitions to the execution mode and performs the above-described telephone call according to the user operation. Perform various functions such as a book display function. The processing unit 114 has the normal mode and the secret mode as the execution mode, and when the user authentication is successful, the processing unit 114 shifts to one of the modes depending on whether the second touch sensor 104 detects a touch operation. To do. Specifically, the processing unit 114 detects the touch operation on the display screen of the second display unit 102 when the first touch sensor 103 detects the touch operation on the confirmation icon C201. If so, transition to the secret mode. On the other hand, when the first touch sensor 103 detects the touch operation on the confirmed icon C201, the processing unit 114 detects the touch operation on the display screen of the second display unit 102 when the first touch sensor 103 detects the touch operation on the confirmation icon C201. If not, transition to normal mode.

一方、処理部114は、ユーザ認証に失敗した場合、すなわち、入力されたパスワードと、記憶部109の予め記憶するパスワードとが異なると判定した場合、休止モードに遷移し、パスワード入力を再度の待ち受ける。   On the other hand, when the user authentication fails, that is, when it is determined that the input password is different from the password stored in advance in the storage unit 109, the processing unit 114 shifts to the sleep mode and waits for password input again. .

ここで、処理部114は、通常モードへの遷移とシークレットモードへの遷移とが、各種機能を実行する際の2つの処理モードの例である。すなわち、通常モードへの遷移とシークレットモードへの遷移とは、各種機能を、実行要求を受け付けるよう設定する処理によって、その機能のアプリケーションプログラムからの、シークレット設定されていないデータへのアクセスを許可する処理を行う点で共通する。一方、通常モードへの遷移とシークレットモードへの遷移とは、シークレット設定されているデータへのアクセスを許可する処理(設定)を行うか否かにおいて異なる。そして、シークレット設定されていないデータは、第1データに該当し、シークレット設定されていないデータとシークレット設定されているデータとの両方を含むデータは、第2データに該当する。また、アプリケーションプログラムからの第1データへのアクセスを許可する処理は、第1処理に該当し、アプリケーションプログラムからの第2データへのアクセスを許可する処理は、第2処理に該当する。この第1処理と第2処理とは、アプリケーションプログラムからのデータへのアクセスを許可する点で関連性を有し、アクセスを許可するデータにおいて互いに異なる。   Here, the processing unit 114 is an example of two processing modes when executing various functions, transition to the normal mode and transition to the secret mode. In other words, the transition to the normal mode and the transition to the secret mode allow access to data that is not secret-set from the application program of the function by setting various functions to accept execution requests. Common in terms of processing. On the other hand, the transition to the normal mode and the transition to the secret mode differ depending on whether or not a process (setting) for permitting access to the data set with the secret is performed. The data that is not set with the secret corresponds to the first data, and the data that includes both the data that is not set with the secret and the data that is set with the secret corresponds to the second data. Further, the process for permitting access to the first data from the application program corresponds to the first process, and the process for permitting access to the second data from the application program corresponds to the second process. The first process and the second process are related in that access to the data from the application program is permitted, and are different from each other in the data that permits access.

図11は、情報端末100において画像部品の位置を変位させた場合の画面画像の例を示す説明図であり、図11(a)は、画像部品の位置を変位させる前の第1表示部101の画面画像を示し、図11(b)は、画像部品の位置を変位させた後の第1表示部101の画面画像を示す。図11(a)の画面画像には、画像部品の一例であるアイコンC201と、画面画像のスクロール位置(表示対象の画像全体における画面画像の位置)を示す本発明の「スクロールバー」の一例であるスライドバーG101とが示されている。また、図11(b)の画面画像は、図11(a)の画面画像と比較すると、画面画像中におけるアイコンC201の位置が変位している。一方、図11(b)における画面画像のスクロール位置は、図11(a)におけるスクロール位置と同じである。このため、アイコンC201の表示位置が変位し、一方、図11図(b)におけるスライドバーG101の位置は、図11(a)におけるスライドバーG101の位置と同じになっている。   FIG. 11 is an explanatory diagram illustrating an example of a screen image when the position of the image component is displaced in the information terminal 100. FIG. 11A illustrates the first display unit 101 before the position of the image component is displaced. FIG. 11B shows the screen image of the first display unit 101 after the position of the image component is displaced. The screen image of FIG. 11A is an example of the “scroll bar” of the present invention indicating the icon C201 which is an example of an image component and the scroll position of the screen image (the position of the screen image in the entire image to be displayed). A slide bar G101 is shown. Further, the screen image of FIG. 11B is displaced in the position of the icon C201 in the screen image as compared with the screen image of FIG. On the other hand, the scroll position of the screen image in FIG. 11B is the same as the scroll position in FIG. Therefore, the display position of the icon C201 is displaced, while the position of the slide bar G101 in FIG. 11B is the same as the position of the slide bar G101 in FIG.

処理部114は、第1タッチセンサ103によって画像部品C201の位置を変位させる操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出していない場合に処理を行う。より具体的には、入力処理部111は、画像部品C201の位置を変位させる操作として、画像部品C201のドラグ・アンド・ドロップ(Drug And Drop)が行われると、第1タッチセンサ103がタッチ位置を所定の時間間隔で順次検出する。そして、入力処理部111は、画像部品C201をドラグ・アンド・ドロップしたことを示す情報と、タッチ位置を示す情報とを、処理部114に順次出力する。そして、処理部114は、入力処理部111から出力された情報に基づいて、画面画像内における画像部品C201の位置の指示を、表示制御部110に順次出力する。そして、表示制御部110は、処理部114から出力された指示に従って、第1表示部101の画面画像内における画像部品C201の位置を順次変位させる。   The processing unit 114 performs processing when the first touch sensor 103 detects a touch operation as an operation for displacing the position of the image component C201 and the second touch sensor 104 does not detect the touch operation. More specifically, when the drag and drop (Drag And Drop) of the image component C201 is performed as an operation for displacing the position of the image component C201, the input processing unit 111 causes the first touch sensor 103 to move to the touch position. Are sequentially detected at predetermined time intervals. Then, the input processing unit 111 sequentially outputs information indicating that the image component C201 has been dragged and dropped and information indicating the touch position to the processing unit 114. Then, the processing unit 114 sequentially outputs an indication of the position of the image component C201 in the screen image to the display control unit 110 based on the information output from the input processing unit 111. Then, the display control unit 110 sequentially displaces the position of the image component C201 in the screen image of the first display unit 101 according to the instruction output from the processing unit 114.

ここで、情報端末100は、画像部品C201の位置を変位させる操作として様々な操作を用いることができる。情報端末100は、例えば、上記のように、画像部品C201をドラグ・アンド・ドロップする操作、すなわち、図11(a)の画面画像において、画像部品C201に指をタッチし、表示画面に指をタッチさせたまま、図11(b)の画面画像における画像部品C201の位置(移動させたい位置)まで指を移動させて表示画面から離す操作を用いることができる。或いは、情報端末100は、画像部品をフリック(Flick)する操作、すなわち、図11(a)の画面画像において、画像部品C201に指をタッチし、その指で画像部品C201をはじくように、図11(b)の画面画像における画像部品C201の位置に向けて(移動させたい向きに向けて)その指で表示画面を擦る操作など、ドラグ・アンド・ドロップ以外の操作を用いるようにしてもよい。   Here, the information terminal 100 can use various operations as operations for displacing the position of the image component C201. For example, as described above, the information terminal 100 performs an operation of dragging and dropping the image component C201, that is, in the screen image of FIG. 11A, touches the image component C201 with a finger and places the finger on the display screen. An operation of moving the finger to the position of the image part C201 (position to be moved) in the screen image of FIG. Alternatively, the information terminal 100 flicks the image component, that is, in the screen image of FIG. 11A, touches the image component C201 with a finger and repels the image component C201 with the finger. Operations other than drag-and-drop, such as an operation of rubbing the display screen with the finger toward the position of the image component C201 in the screen image 11 (b) (toward the direction of movement), may be used. .

図12は、情報端末100において画面画像をスクロールさせた場合の画面画像の例を示す説明図であり、図12(a)は、画像部品の位置を変位させる前の第1表示部101の画面画像を示し、図12(b)は、画像部品の位置を変位させた後の第1表示部101の画面画像を示す。なお、図12(b)における画面画像では、スクロール位置は、図12(a)におけるスクロール位置から変位しており、この点で図11(b)の場合と異なる。このため、図12(b)におけるスライドバーG101の位置は、図12(a)におけるスライドバーの位置から変位している。すなわち、図11に示したアイコンの移動処理と、図12に示すスクロール処理とは、アイコンの表示位置を移動させる点で互いに関連性を有する。一方、図11に示したアイコンの移動処理と、図12に示すスクロール処理とは、アイコンのみを移動させるか、あるいは、表示画面の表示する画像全体を移動させるかにおいて互いに異なる。   FIG. 12 is an explanatory diagram illustrating an example of a screen image when the screen image is scrolled in the information terminal 100. FIG. 12A illustrates the screen of the first display unit 101 before the position of the image component is displaced. FIG. 12B shows a screen image of the first display unit 101 after the position of the image component is displaced. In the screen image in FIG. 12B, the scroll position is displaced from the scroll position in FIG. 12A, which is different from the case of FIG. 11B. For this reason, the position of the slide bar G101 in FIG. 12B is displaced from the position of the slide bar in FIG. That is, the icon moving process shown in FIG. 11 and the scrolling process shown in FIG. 12 are related to each other in that the icon display position is moved. On the other hand, the icon moving process shown in FIG. 11 and the scrolling process shown in FIG. 12 differ from each other in whether only the icon is moved or the entire image displayed on the display screen is moved.

処理部114は、第1タッチセンサ103によって画像部品C201の位置を変位させる操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出している場合に処理を行う。より具体的には、入力処理部111は、画像部品C201のドラグ・アンド・ドロップが行われると、第1タッチセンサ103がタッチ位置を順次検出し、画像部品C201をドラグ・アンド・ドロップしたことを示す情報と、タッチ位置を示す情報とを、処理部114に順次出力する。また、入力処理部111は、画像部品C201のドラグ・アンド・ドロップが行われる間、第2表示部102の表示画面がタッチされており、第2タッチセンサ104がタッチ位置を順次検出し、タッチ位置を示す情報を処理部114に順次出力する。   The processing unit 114 performs a process when the first touch sensor 103 detects a touch operation as an operation for displacing the position of the image component C201 and the second touch sensor 104 detects a touch operation. More specifically, the input processing unit 111 detects that the touch position is sequentially detected by the first touch sensor 103 when the image component C201 is dragged and dropped, and the image component C201 is dragged and dropped. And information indicating the touch position are sequentially output to the processing unit 114. The input processing unit 111 is touched on the display screen of the second display unit 102 while the image component C201 is being dragged and dropped, and the second touch sensor 104 sequentially detects the touch position, and the touch is performed. Information indicating the position is sequentially output to the processing unit 114.

処理部114は、入力処理部111から出力される情報に基づいて、画面画像をスクロールさせる旨の指示(表示対象の画像のうち、画面画像として表示する部分の位置を示す情報)を、表示制御部110に順次出力する。そして、表示制御部110は、処理部114から出力される指示に従って、第1表示部101の画面画像をスクロールさせる。   Based on the information output from the input processing unit 111, the processing unit 114 displays an instruction to scroll the screen image (information indicating the position of the portion of the display target image to be displayed as the screen image). Sequentially output to the unit 110. Then, the display control unit 110 scrolls the screen image of the first display unit 101 according to the instruction output from the processing unit 114.

このとき、入力処理部111は、第2表示部102の第2タッチセンサ104へのタッチ操作が複数個所で行われた場合、処理部114は、第3処理を行って、第2タッチセンサ104への1箇所でのタッチ操作を強調させることにより、第1表示部101の画面画像をスクロールエンドまで変位させる。   At this time, when the input processing unit 111 performs touch operations on the second touch sensor 104 of the second display unit 102 at a plurality of places, the processing unit 114 performs the third process to perform the second touch sensor 104. By emphasizing the touch operation at one place, the screen image of the first display unit 101 is displaced to the scroll end.

ここで、図11における処理と図12における処理とは、画像部品C201の位置を変位させる処理における2つの処理モードの例である。すなわち、図11における処理と図12における処理とは、画像部品C201の表示位置を変位させる処理を行う点で関連性を有し、画像部品C201のみを移動させるか、あるいは、表示画面の表示する画像全体を移動させるかにおいて、互いに異なる。そして、2つの処理モードは、画像部品C201の表示位置を変位させる処理が第1処理に該当し、画面画像をスクロールさせる処理が第2処理に該当する。   Here, the processing in FIG. 11 and the processing in FIG. 12 are examples of two processing modes in the processing for displacing the position of the image component C201. That is, the process in FIG. 11 and the process in FIG. 12 are related in that the process of displacing the display position of the image component C201 is performed, and only the image component C201 is moved or the display screen is displayed. It differs from each other in whether the entire image is moved. In the two processing modes, the process of displacing the display position of the image component C201 corresponds to the first process, and the process of scrolling the screen image corresponds to the second process.

図13は、情報端末100においてスクロール前後の画面画像の例を示す説明図である。図13(a)は、スクロール前の第1表示部101の画面画像を示し、図13(b)は、スクロール後の、第1表示部101の画面画像を示す。図13において、第1表示部101の表示画面は、ウェブページを表示しており、また、表示画面の右側には、スクロール位置を示すスライドバーG301が表示されている。図13(a)と図13(b)とは、第1表示部101が、同一のウェブページを表示する場合の画面画像を示しているが、スクロール位置(表示対象のウェブページ内における画面画像の位置)が異なる。図13(b)は、図13(a)におけるスクロール位置から、表示画面の1つ分下にスクロールした場合の画面画像を示している。このため、図13(b)におけるスライドバーG301の位置は、図13(a)におけるスライドバーG301の位置から、スクロール量に応じて下がった位置となっている。   FIG. 13 is an explanatory diagram illustrating an example of screen images before and after scrolling in the information terminal 100. FIG. 13A shows a screen image of the first display unit 101 before scrolling, and FIG. 13B shows a screen image of the first display unit 101 after scrolling. In FIG. 13, the display screen of the first display unit 101 displays a web page, and a slide bar G301 indicating a scroll position is displayed on the right side of the display screen. FIG. 13A and FIG. 13B show screen images when the first display unit 101 displays the same web page, but the scroll position (screen image in the web page to be displayed). Is different). FIG. 13B shows a screen image when the screen is scrolled down one display screen from the scroll position in FIG. For this reason, the position of the slide bar G301 in FIG. 13B is a position that is lowered according to the scroll amount from the position of the slide bar G301 in FIG.

処理部114は、第1タッチセンサ103によってスクロール操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出していない場合に処理を行う。図13(a)、(b)に示すように、より具体的には、入力処理部111は、スクロール操作として、スライドバーG301の下側の領域F301へのタッチ操作(タップ)が行われると、第1タッチセンサ103によってタッチ位置を検出し、領域F301へのタッチ操作が行われたことを示す情報と、タッチ位置を示す情報とを、処理部114に出力する。そして、処理部114は、入力処理部111から出力された情報に基づいて、画面画像のスクロール位置を、表示画面の1つ分下にする旨の指示を、表示制御部110に出力する。そして、表示制御部110は、処理部114から出力された指示に従って、第1表示部101の画面画像のスクロール位置を、表示画面の1つ分下にする。   The processing unit 114 performs processing when the first touch sensor 103 detects a touch operation as a scroll operation and the second touch sensor 104 does not detect the touch operation. As shown in FIGS. 13A and 13B, more specifically, when the input processing unit 111 performs a touch operation (tap) on the lower region F301 of the slide bar G301 as a scroll operation. The touch position is detected by the first touch sensor 103, and information indicating that the touch operation on the region F301 has been performed and information indicating the touch position are output to the processing unit 114. Then, based on the information output from the input processing unit 111, the processing unit 114 outputs an instruction to the display control unit 110 to lower the scroll position of the screen image by one display screen. Then, according to the instruction output from the processing unit 114, the display control unit 110 lowers the scroll position of the screen image of the first display unit 101 by one display screen.

ここで、情報端末100は、スクロール操作として様々な操作を用いることができる。例えば、上記のように、情報端末100は、スライドバーG301の上または下の領域をタップする操作を用いることができる。あるいは、情報端末100は、第1表示部101が、上スクロールボタンのアイコンと、下スクロールボタンのアイコンとを表示し、これらのアイコンへのタッチ操作をスクロール操作として用いるようにしてもよい。   Here, the information terminal 100 can use various operations as a scroll operation. For example, as described above, the information terminal 100 can use an operation of tapping an area above or below the slide bar G301. Alternatively, in the information terminal 100, the first display unit 101 may display the icon of the up scroll button and the icon of the down scroll button, and use a touch operation on these icons as the scroll operation.

図14は、情報端末100におけるスクロール前後の画面画像の他例を示す説明図であり、図14(a)は、スクロール前の第1表示部101の画面画像を示し、図14(b)は、スクロール後の第1表示部101の画面画像を示す。この場合、情報端末100は、図13の場合と同様、第1表示部101の表示画面は、ウェブページを表示しており、また、表示画面の右側には、スクロール位置を示すスライドバーG301を表示している。そして、図14(a)と図14(b)とにおいて、第1表示部101が、同一のウェブページを表示する場合の画面画像を示している点、および、スクロール位置(表示対象のウェブページ内における画面画像の位置)が異なる点も、図13の場合と同様である。ただし、図14では、スクロール量は、図13の場合と異なる。図14(b)は、図14(a)におけるスクロール位置から、表示画面の5つ分下にスクロールした場合の画面画像を示している。このため、図14(b)におけるスライドバーG301の位置は、図14(a)におけるスライドバーG301の位置から、スクロール量に応じて下がった位置となっている。そして、図14では、スクロール量は、図13の場合よりも多い分、スライドバーG301の下がる量も多くなっている。   FIG. 14 is an explanatory diagram showing another example of the screen image before and after scrolling in the information terminal 100, FIG. 14 (a) shows the screen image of the first display unit 101 before scrolling, and FIG. The screen image of the 1st display part 101 after a scroll is shown. In this case, as in the case of FIG. 13, the information terminal 100 displays a web page on the display screen of the first display unit 101, and a slide bar G301 indicating the scroll position is displayed on the right side of the display screen. it's shown. 14 (a) and 14 (b), the first display unit 101 shows a screen image when the same web page is displayed, and the scroll position (web page to be displayed). The position of the screen image is different from that in FIG. However, in FIG. 14, the scroll amount is different from that in FIG. FIG. 14B shows a screen image when the screen is scrolled five times below the display screen from the scroll position in FIG. For this reason, the position of the slide bar G301 in FIG. 14B is a position that is lowered according to the scroll amount from the position of the slide bar G301 in FIG. In FIG. 14, the scroll amount is larger than that in FIG. 13, and the amount by which the slide bar G301 is lowered is larger.

処理部114は、第1タッチセンサ103によってスクロール操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出している場合に処理を行う。より具体的には、入力処理部111は、スクロール操作として、スライドバーG301の下側の領域F301へのタッチ操作(タップ)が行われると、第1タッチセンサ103によってタッチ位置を検出し、領域F301へのタッチ操作が行われたことを示す情報と、タッチ位置を示す情報とを、処理部114に出力する。また、入力処理部111は、領域F301へのタッチ操作が行われた際、第2表示部102の表示画面がタッチされており、第2タッチセンサ104によってタッチ位置を検出し、タッチ位置を示す情報を処理部114に出力する。そして、処理部114は、入力処理部111から出力された情報に基づいて、画面画像のスクロール位置を、表示画面の5つ分下にする旨の指示を、表示制御部110に出力する。そして、表示制御部110は、処理部114から出力された指示に従って、第1表示部101の画面画像のスクロール位置を、表示画面の5つ分下にする。   The processing unit 114 performs processing when the first touch sensor 103 detects a touch operation as a scroll operation and the second touch sensor 104 detects a touch operation. More specifically, when a touch operation (tap) on the lower region F301 of the slide bar G301 is performed as the scroll operation, the input processing unit 111 detects the touch position by the first touch sensor 103, and the region Information indicating that the touch operation on F301 has been performed and information indicating the touch position are output to the processing unit 114. Further, when a touch operation is performed on the region F301, the input processing unit 111 is touching the display screen of the second display unit 102, detects the touch position by the second touch sensor 104, and indicates the touch position. Information is output to the processing unit 114. Then, based on the information output from the input processing unit 111, the processing unit 114 outputs an instruction to the display control unit 110 to lower the screen image scroll position by five positions below the display screen. Then, in accordance with the instruction output from the processing unit 114, the display control unit 110 lowers the scroll position of the screen image on the first display unit 101 by five positions below the display screen.

ここで、図13における処理と図14における処理とは、第1表示部101の画面画像をスクロールさせる処理における2つの処理モードの例である。すなわち、図13における処理と図14における処理とは、第1表示部101の画面画像をスクロールさせる処理を行う点で関連性を有し、スクロール量において異なる。そして、処理部114は、第1表示部101の画面画像を表示画面の1つ分下にスクロールさせる処理を第1処理とし、第1表示部101の画面画像を第1処理と異なるスクロール量として表示画面の5つ分下にスクロールさせる処理を第2処理として処理する。   Here, the process in FIG. 13 and the process in FIG. 14 are examples of two processing modes in the process of scrolling the screen image of the first display unit 101. That is, the process in FIG. 13 and the process in FIG. 14 are related in that the process of scrolling the screen image of the first display unit 101 is performed and the scroll amount is different. And the process part 114 makes the process which scrolls the screen image of the 1st display part 101 one display screen below as a 1st process, and sets the screen image of the 1st display part 101 as a scroll amount different from a 1st process. A process of scrolling down the display screen by five is processed as the second process.

図15は、情報端末100におけるスクロール前後の画面画像の他例を示す説明図であり、図15(a)は、スクロール前の第1表示部101の画面画像を示し、図15(b)は、スクロール後の第1表示部101の画面画像を示し、図15(c)は、スクロール前の他の指の位置を示す。この場合、情報端末100は、第1表示部101の表示画面は、図14と同様に、本発明における「オブジェクト」の一例である地図を表示している。   FIG. 15 is an explanatory view showing another example of the screen image before and after scrolling in the information terminal 100, FIG. 15 (a) shows the screen image of the first display unit 101 before scrolling, and FIG. FIG. 15C shows the screen image of the first display unit 101 after scrolling, and FIG. 15C shows the position of another finger before scrolling. In this case, the information terminal 100 displays a map, which is an example of the “object” in the present invention, on the display screen of the first display unit 101, as in FIG.

処理部114は、第1タッチセンサ103によってスクロール操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出している場合に処理を行う。図15(a)に示すように、より具体的には、処理部114は、第2表示部102の第2タッチセンサ104へのタッチ操作により第1表示部101における地図に対応した特定領域P202を指定する。図15(b)に示すように、処理部114は、第1表示部101の第1タッチセンサ103の移動量に応じて地図のスクロール量を設定する。図15(c)に示すように、処理部114は、第1表示部101の第1タッチセンサ103へのタッチ操作は、地図上ではなくてもよく、第1表示部101上の任意の位置でよい。このとき、処理部114は、第2表示部102の第2タッチセンサ104へのタッチ操作がない場合、第1表示部101の第1タッチセンサ103のスクロール量に対応して第1表示部101の地図をスクロールする。   The processing unit 114 performs processing when the first touch sensor 103 detects a touch operation as a scroll operation and the second touch sensor 104 detects a touch operation. As shown in FIG. 15A, more specifically, the processing unit 114 performs a specific region P202 corresponding to the map in the first display unit 101 by a touch operation on the second touch sensor 104 of the second display unit 102. Is specified. As illustrated in FIG. 15B, the processing unit 114 sets the scroll amount of the map according to the movement amount of the first touch sensor 103 of the first display unit 101. As illustrated in FIG. 15C, the processing unit 114 does not have to perform the touch operation on the first touch sensor 103 of the first display unit 101 on the map, but on an arbitrary position on the first display unit 101. It's okay. At this time, when there is no touch operation on the second touch sensor 104 of the second display unit 102, the processing unit 114 corresponds to the scroll amount of the first touch sensor 103 of the first display unit 101. Scroll through the map.

図16は、情報端末100におけるスクロール前後の画面画像の他例を示す説明図であり、図16(a)は、スクロール前の第1表示部101の画面画像を示し、図16(b)は、スクロール後の第1表示部101の画面画像を示す。この場合、情報端末100は、第1表示部101の表示画面は、本発明における「オブジェクト」の一例である地図を表示している。   FIG. 16 is an explanatory view showing another example of the screen image before and after scrolling in the information terminal 100, FIG. 16 (a) shows the screen image of the first display unit 101 before scrolling, and FIG. The screen image of the 1st display part 101 after a scroll is shown. In this case, in the information terminal 100, the display screen of the first display unit 101 displays a map which is an example of the “object” in the present invention.

処理部114は、第1タッチセンサ103によってスクロール操作としてのタッチ操作を検出し、且つ、第2タッチセンサ104によってタッチ操作を検出している場合に処理を行う。図16(a)、(b)に示すように、より具体的には、処理部114は、第2表示部102の第2タッチセンサ104へのタッチ操作により第1表示部101におけるスライドバーG401、G402に対応した位置を指定した場合、第1表示部101の第1タッチセンサ103による地図のスクロール量を、スライドバーG401、G402の範囲に設定して処理を行う。この場合、処理部114は、地図をスクロール移動させるのに代えて、スライドバーG401からスライドバーG402まで、地図を直接移動させる処理を行うこともできる。なお、スライドバーG401、402は、必ずしも必要ではなく、処理部114は、第2表示部102の第2タッチセンサ104の所定の位置への指定により地図の移動を直接行うことができる。   The processing unit 114 performs processing when the first touch sensor 103 detects a touch operation as a scroll operation and the second touch sensor 104 detects a touch operation. More specifically, as illustrated in FIGS. 16A and 16B, the processing unit 114 performs a slide bar G <b> 401 on the first display unit 101 by a touch operation on the second touch sensor 104 of the second display unit 102. When the position corresponding to G402 is designated, the processing is performed by setting the scroll amount of the map by the first touch sensor 103 of the first display unit 101 within the range of the slide bars G401 and G402. In this case, the processing unit 114 can perform a process of moving the map directly from the slide bar G401 to the slide bar G402 instead of scrolling the map. Note that the slide bars G401 and 402 are not always necessary, and the processing unit 114 can directly move the map by designating the second touch sensor 104 of the second display unit 102 to a predetermined position.

以上説明したように、情報端末100によれば、処理部114は、地図等のオブジェクトの移動と画面スクロールの使い分け、全画面スクロールと一部画面スクロールの使い分けの操作を簡単、且つ、直感的にすることができる。   As described above, according to the information terminal 100, the processing unit 114 can easily and intuitively operate the movement of an object such as a map and the use of screen scrolling, and the use of full screen scrolling and partial screen scrolling. can do.

また、情報端末100によれば、処理部114は、第2タッチセンサ104への特定のタッチ操作により第3処理を行うことにより、複数の使い分けを簡単に処理することができる。   Further, according to the information terminal 100, the processing unit 114 can easily process a plurality of usages by performing the third process by a specific touch operation on the second touch sensor 104.

そして、情報端末100によれば、処理部114は、第3処理により、第1表示部101の画面画像をスクロールエンドまで変位させることにより、第2タッチセンサ104への1箇所でのタッチ操作を強調させることができる。   And according to the information terminal 100, the process part 114 displaces the screen image of the 1st display part 101 to a scroll end by 3rd process, and performs the touch operation to the 2nd touch sensor 104 in one place. Can be emphasized.

そしてまた、情報端末100によれば、処理部114は、第3処理により、第2タッチセンサ104への複数のタッチ操作により、シークレット指定のレベルを超シークレットレベルまで上げてプライバシーの強化を図ることができる。   Further, according to the information terminal 100, the processing unit 114 increases the secret designation level to the super-secret level by a plurality of touch operations on the second touch sensor 104 by the third process, thereby enhancing privacy. Can do.

さらに、情報端末100によれば、処理部114は、第2タッチセンサ104により特定領域を指定しながら、第1表示部101における第1タッチセンサ103のスクロールにより、特定領域内でスクロールすることにより、スクロールをし易くできる。   Furthermore, according to the information terminal 100, the processing unit 114 scrolls within the specific area by scrolling the first touch sensor 103 on the first display unit 101 while specifying the specific area by the second touch sensor 104. , Easy to scroll.

加えて、情報端末100によれば、処理部114は、第2タッチセンサ104によりスライドバーG401、G402の位置を指定しながら、第1タッチセンサ103のスクロールにより第2タッチセンサ104の指定した位置までスクロールするために、ユーザの取り扱い性を向上できる。   In addition, according to the information terminal 100, the processing unit 114 specifies the position of the second touch sensor 104 by scrolling the first touch sensor 103 while specifying the position of the slide bars G401 and G402 by the second touch sensor 104. Scrolling up to the user can improve user handling.

タッチ操作処理方法によれば、処理部114は、地図等のオブジェクトの移動と画面スクロールの使い分け、全画面スクロールと一部画面スクロールの使い分けの操作を簡単、且つ、直感的にすることができる。   According to the touch operation processing method, the processing unit 114 can easily and intuitively operate the movement of an object such as a map and the use of a screen scroll, and the use of a full screen scroll and a partial screen scroll.

プログラムによれば、処理部114は、地図等のオブジェクトの移動と画面スクロールの使い分け、全画面スクロールと一部画面スクロールの使い分けの操作を簡単、且つ、直感的にすることができる。   According to the program, the processing unit 114 can easily and intuitively operate the movement of an object such as a map and the use of a screen scroll, and the use of a full screen scroll and a partial screen scroll.

なお、情報端末、タッチ操作処理方法及びプログラムは、前述した第1の実施形態に限定するものでなく、適宜な変形や改良等が可能である。   The information terminal, the touch operation processing method, and the program are not limited to the first embodiment described above, and appropriate modifications and improvements can be made.

100 情報端末
101 第1表示部
102 第2表示部
103 第1タッチセンサ
104 第2タッチセンサ
105 音声入力部
106 音声出力部
107 無線通信部
108 制御部
109 記憶部
110 表示制御部
111 入力処理部
112 音声処理部
113 通信制御部
114 処理部
115 アプリケーション処理部
120 筐体
A111、A112、A121、A122、A123、F301 領域
C101 確定アイコン
C201 確定アイコン
G101、G301、G401、G402 スライドバー
L101、L102、L103 行
P102 点
P202 特定領域
100 information terminal 101 first display unit 102 second display unit 103 first touch sensor 104 second touch sensor 105 voice input unit 106 voice output unit 107 wireless communication unit 108 control unit 109 storage unit 110 display control unit 111 input processing unit 112 Audio processing unit 113 Communication control unit 114 Processing unit 115 Application processing unit 120 Chassis A111, A112, A121, A122, A123, F301 Region C101 Confirmation icon C201 Confirmation icons G101, G301, G401, G402 Slide bars L101, L102, L103 rows P102 Point P202 Specific area

Claims (8)

表示部と、
タッチ操作を検出する第1タッチセンサと、
タッチ操作を検出する第2タッチセンサと、
前記第1タッチセンサへのタッチ操作を検出することにより第1処理を行い、前記第1タッチセンサへのタッチ操作を検出し、且つ、前記第2タッチセンサへのタッチ操作を検出することにより、前記第1処理に代えて前記第1処理と関連性を有する第2処理を行う処理部と
を備え、
前記処理部は、前記第2タッチセンサへのタッチ操作によりオブジェクトを指定しながら、前記第1タッチセンサによる前記表示部における前記オブジェクトを移動させるタッチ操作に基づいて前記オブジェクトを移動させる
ことを特徴とする情報端末。
A display unit;
A first touch sensor for detecting a touch operation;
A second touch sensor for detecting a touch operation;
By performing a first process by detecting a touch operation on the first touch sensor, detecting a touch operation on the first touch sensor, and detecting a touch operation on the second touch sensor, A processing unit that performs a second process having relevance to the first process instead of the first process,
The processing unit moves the object based on a touch operation of moving the object on the display unit by the first touch sensor while designating the object by a touch operation on the second touch sensor. Information terminal.
前記処理部は、前記第2タッチセンサへの特定のタッチ操作により前記第2処理に代えて或いは前記第2処理に加えて第3処理を行う
ことを特徴とする請求項1に記載の情報端末。
The information terminal according to claim 1, wherein the processing unit performs a third process instead of the second process or in addition to the second process by a specific touch operation on the second touch sensor. .
前記第3処理は、スクロールエンドまでのスクロール量の変更である
ことを特徴とする請求項2に記載の情報端末。
The information terminal according to claim 2, wherein the third process is a change in a scroll amount up to a scroll end.
前記第3処理は、特別なシークレットデータの表示である
ことを特徴とする請求項2に記載の情報端末。
The information terminal according to claim 2, wherein the third process is a display of special secret data.
前記処理部は、前記第2タッチセンサにより特定領域を指定しながら、前記表示部における前記第1タッチセンサのスクロールにより、前記特定領域内でスクロールする
ことを特徴とする請求項1から4のいずれかに記載の情報端末。
The said processing part scrolls within the said specific area by the scroll of the said 1st touch sensor in the said display part, designating a specific area with the said 2nd touch sensor. Information terminal described in Crab.
前記処理部は、前記第2タッチセンサによりスクロールバーの位置を指定しながら、前記第1タッチセンサのスクロールにより前記第2タッチセンサの指定した位置までスクロールする
ことを特徴とする請求項1から5のいずれかに記載の情報端末。
The said processing part is scrolled to the position designated by the said 2nd touch sensor by the scroll of the said 1st touch sensor, designating the position of a scroll bar by the said 2nd touch sensor. Information terminal in any one of.
情報端末に有する表示部の第1タッチセンサへのタッチ操作を検出することにより第1処理を行い、前記第1タッチセンサへのタッチ操作を検出し、且つ、前記情報端末に有する第2タッチセンサへのタッチ操作を検出することにより、前記第1処理に代えて前記第1処理と関連性を有する第2処理を行うとともに、前記第2タッチセンサへのタッチ操作によりオブジェクトを指定しながら、前記第1タッチセンサによる前記表示部における前記オブジェクトを移動させるタッチ操作に基づいて前記オブジェクトを移動させる処理段階
を備えることを特徴とするタッチ操作処理方法。
A first process is performed by detecting a touch operation on the first touch sensor of the display unit included in the information terminal, a touch operation on the first touch sensor is detected, and a second touch sensor included in the information terminal By detecting a touch operation to the second process, the second process having the relevance to the first process is performed instead of the first process, and the object is designated by the touch operation to the second touch sensor. A touch operation processing method comprising: a step of moving the object based on a touch operation of moving the object on the display unit by the first touch sensor.
コンピュータを、
情報端末に有する表示部の第1タッチセンサへのタッチ操作を検出することにより第1処理を行い、前記第1タッチセンサへのタッチ操作を検出し、且つ、前記情報端末に有する第2タッチセンサへのタッチ操作を検出することにより、前記第1処理に代えて前記第1処理と関連性を有する第2処理を行うとともに、前記第2タッチセンサへのタッチ操作によりオブジェクトを指定しながら、前記第1タッチセンサによる前記表示部における前記オブジェクトを移動させるタッチ操作に基づいて前記オブジェクトを移動させる処理部
として機能させることを特徴とするプログラム。
Computer
A first process is performed by detecting a touch operation on the first touch sensor of the display unit included in the information terminal, a touch operation on the first touch sensor is detected, and a second touch sensor included in the information terminal By detecting a touch operation to the second process, the second process having the relevance to the first process is performed instead of the first process, and the object is designated by the touch operation to the second touch sensor. A program that functions as a processing unit that moves the object based on a touch operation of moving the object on the display unit by a first touch sensor.
JP2013101067A 2013-05-13 2013-05-13 Information terminal, touch operation processing method, and program Pending JP2014222379A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013101067A JP2014222379A (en) 2013-05-13 2013-05-13 Information terminal, touch operation processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013101067A JP2014222379A (en) 2013-05-13 2013-05-13 Information terminal, touch operation processing method, and program

Publications (1)

Publication Number Publication Date
JP2014222379A true JP2014222379A (en) 2014-11-27

Family

ID=52121885

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013101067A Pending JP2014222379A (en) 2013-05-13 2013-05-13 Information terminal, touch operation processing method, and program

Country Status (1)

Country Link
JP (1) JP2014222379A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10108225B2 (en) 2015-09-15 2018-10-23 Ricoh Company, Ltd. Terminal device with back side operation features
JP2020017215A (en) * 2018-07-27 2020-01-30 京セラ株式会社 Electronic device, control program, and display control method
JP2020017218A (en) * 2018-07-27 2020-01-30 京セラ株式会社 Electronic device, control program, and display control method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10108225B2 (en) 2015-09-15 2018-10-23 Ricoh Company, Ltd. Terminal device with back side operation features
JP2020017215A (en) * 2018-07-27 2020-01-30 京セラ株式会社 Electronic device, control program, and display control method
JP2020017218A (en) * 2018-07-27 2020-01-30 京セラ株式会社 Electronic device, control program, and display control method
JP7034856B2 (en) 2018-07-27 2022-03-14 京セラ株式会社 Electronic devices, control programs and display control methods
US11354031B2 (en) 2018-07-27 2022-06-07 Kyocera Corporation Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
JP7244231B2 (en) 2018-07-27 2023-03-22 京セラ株式会社 ELECTRONIC DEVICE, CONTROL PROGRAM AND DISPLAY CONTROL METHOD

Similar Documents

Publication Publication Date Title
US9753607B2 (en) Electronic device, control method, and control program
JP5983503B2 (en) Information processing apparatus and program
JP6368455B2 (en) Apparatus, method, and program
US20100146451A1 (en) Handheld terminal capable of supporting menu selection using dragging on touch screen and method of controlling the same
JP5611763B2 (en) Portable terminal device and processing method
KR102253453B1 (en) Method and device for creating a group
JP2011154555A (en) Electronic apparatus
KR20150007048A (en) Method for displaying in electronic device
JP2013127692A (en) Electronic apparatus, delete program, and method for control delete
KR20140089224A (en) Device and method for executing operation based on touch-input
KR20140036576A (en) Method for displaying category and an electronic device thereof
US9274632B2 (en) Portable electronic device, touch operation processing method, and program
JP5854928B2 (en) Electronic device having touch detection function, program, and control method of electronic device having touch detection function
KR20130011905A (en) Apparatus and method for character input through a scroll bar in a mobile device
KR20130084209A (en) Electronic device and method of controlling the same
JPWO2011093230A1 (en) Portable information terminal and key arrangement changing method thereof
JP2014149699A (en) Mobile information terminal, control method, and program
KR101354841B1 (en) Electronic Device With Touch Screen And Input Data Processing Method Thereof
JP2012174247A (en) Mobile electronic device, contact operation control method, and contact operation control program
JP2014222379A (en) Information terminal, touch operation processing method, and program
KR20100001017A (en) Portable terminal capable of sensing proximity touch
JP5725903B2 (en) Electronic device, contact operation control program, and contact operation control method
JP2011160375A (en) Communication terminal
JP5586764B2 (en) User interface device
KR20130023948A (en) Apparatus and method for selecting icon in portable terminal