JP6096100B2 - Electronic device, control method, and control program - Google Patents

Electronic device, control method, and control program Download PDF

Info

Publication number
JP6096100B2
JP6096100B2 JP2013246511A JP2013246511A JP6096100B2 JP 6096100 B2 JP6096100 B2 JP 6096100B2 JP 2013246511 A JP2013246511 A JP 2013246511A JP 2013246511 A JP2013246511 A JP 2013246511A JP 6096100 B2 JP6096100 B2 JP 6096100B2
Authority
JP
Japan
Prior art keywords
display area
display
smartphone
detected
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013246511A
Other languages
Japanese (ja)
Other versions
JP2015106181A (en
Inventor
長谷川 純一
純一 長谷川
那由 能町
那由 能町
須藤 智浩
智浩 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013246511A priority Critical patent/JP6096100B2/en
Publication of JP2015106181A publication Critical patent/JP2015106181A/en
Application granted granted Critical
Publication of JP6096100B2 publication Critical patent/JP6096100B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Description

本出願は、電子機器、制御方法、及び制御プログラムに関する。特に、本出願は、タッチスクリーンを有する電子機器、その電子機器を制御する制御方法、及びその電子機器を制御するための制御プログラムに関する。   The present application relates to an electronic device, a control method, and a control program. In particular, the present application relates to an electronic device having a touch screen, a control method for controlling the electronic device, and a control program for controlling the electronic device.

タッチスクリーンディスプレイを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、スマートフォン及びタブレットを含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。   Touch screen devices with a touch screen display are known. Touch screen devices include, but are not limited to, for example, smartphones and tablets. The touch screen device detects a finger, pen, or stylus pen gesture via the touch screen. The touch screen device operates according to the detected gesture. An example of the operation according to the detected gesture is described in Patent Document 1, for example.

タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。   The basic operation of the touch screen device is realized by an OS (Operating System) installed in the device. Examples of the OS installed in the touch screen device include, but are not limited to, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, and Windows (registered trademark) Phone.

国際公開第2008/086302号International Publication No. 2008/086302

タッチスクリーンデバイスは、利用者による直感的な画面操作を可能にするが、タッチスクリーンデバイスにおける画面操作には改善の余地がある。このような理由から、画面操作に関して利用者の利便性を向上させることができる電子機器、制御方法、及び制御プログラムに対するニーズがある。   The touch screen device enables an intuitive screen operation by the user, but there is room for improvement in the screen operation in the touch screen device. For these reasons, there is a need for an electronic device, a control method, and a control program that can improve user convenience for screen operations.

1つの態様に係る電子機器は、第1表示領域と第2表示領域とを有する画面を表示するタッチスクリーンディスプレイと、前記第1表示領域に第1画像を表示させるとともに、当該第1表示領域において操作を検出した位置に関する情報を前記第2表示領域に表示させるコントローラとを備える。   An electronic apparatus according to an aspect displays a touch screen display that displays a screen having a first display area and a second display area, and displays a first image in the first display area. A controller for displaying information on a position where the operation is detected in the second display area.

1つの態様に係る制御方法は、タッチスクリーンディスプレイを備えた電子機器の制御方法であって、第1表示領域と第2表示領域とを有する画面を前記タッチスクリーンディスプレイに表示させるステップと、前記第1表示領域に第1画像を表示させるステップと、前記第1表示領域において操作を検出した位置に関する情報を前記第2表示領域に表示させるステップとを含む。   A control method according to one aspect is a method for controlling an electronic device including a touch screen display, the step of displaying a screen having a first display area and a second display area on the touch screen display, Displaying a first image in one display area; and displaying information on a position where an operation is detected in the first display area in the second display area.

1つの態様に係る制御プログラムは、タッチスクリーンディスプレイを備えた電子機器に、第1表示領域と第2表示領域とを有する画面を前記タッチスクリーンディスプレイに表示させるステップと、前記第1表示領域に第1画像を表示させるステップと、前記第1表示領域において操作を検出した位置に関する情報を前記第2表示領域に表示させるステップとを実行させる。   A control program according to an aspect includes a step of causing an electronic device including a touch screen display to display a screen having a first display area and a second display area on the touch screen display; and a first program in the first display area. A step of displaying one image, and a step of displaying information on a position where an operation is detected in the first display area in the second display area.

図1は、スマートフォンの正面図である。FIG. 1 is a front view of a smartphone. 図2は、スマートフォンの背面図である。FIG. 2 is a rear view of the smartphone. 図3は、スマートフォンのブロック図である。FIG. 3 is a block diagram of the smartphone. 図4は、スマートフォンの画面構成の例を説明するための図である。FIG. 4 is a diagram for explaining an example of the screen configuration of the smartphone. 図5は、スマートフォンによる表示制御の第1の例を示す図である。FIG. 5 is a diagram illustrating a first example of display control by a smartphone. 図6は、スマートフォンによる表示制御の第1の例の処理手順を示すフローチャートである。FIG. 6 is a flowchart illustrating a processing procedure of a first example of display control by the smartphone. 図7は、スマートフォンによる表示制御の第2の例を示す図である。FIG. 7 is a diagram illustrating a second example of display control by a smartphone. 図8は、スマートフォンによる表示制御の第2の例の処理手順を示すフローチャートである。FIG. 8 is a flowchart illustrating a processing procedure of a second example of display control by the smartphone. 図9は、スマートフォンによる表示制御の第2の例の変形例を示す図である。FIG. 9 is a diagram illustrating a modification of the second example of display control by the smartphone. 図10は、スマートフォンによる表示制御の第3の例を示す図である。FIG. 10 is a diagram illustrating a third example of display control by a smartphone. 図11は、スマートフォンによる表示制御の第3の例の処理手順を示すフローチャートである。FIG. 11 is a flowchart illustrating a processing procedure of a third example of display control by the smartphone. 図12は、スマートフォンによる表示制御の第4の例を示す図である。FIG. 12 is a diagram illustrating a fourth example of display control by a smartphone. 図13は、スマートフォンによる表示制御の第4の例の処理手順を示すフローチャートである。FIG. 13 is a flowchart illustrating a processing procedure of a fourth example of display control by the smartphone. 図14は、スマートフォンによる表示制御の第5の例を示す図である。FIG. 14 is a diagram illustrating a fifth example of display control by a smartphone. 図15は、スマートフォンによる表示制御の第5の例の処理手順を示すフローチャートである。FIG. 15 is a flowchart illustrating a processing procedure of a fifth example of display control by the smartphone. 図16は、スマートフォンによる表示制御の第6の例を示す図である。FIG. 16 is a diagram illustrating a sixth example of display control by a smartphone. 図17は、スマートフォンによる表示制御の第6の例の処理手順を示すフローチャートである。FIG. 17 is a flowchart illustrating a processing procedure of a sixth example of display control by the smartphone. 図18は、スマートフォンによる表示制御の第7の例を示す図である。FIG. 18 is a diagram illustrating a seventh example of display control by a smartphone. 図19は、スマートフォンによる表示制御の第7の例の処理手順を示すフローチャートである。FIG. 19 is a flowchart illustrating a processing procedure of a seventh example of display control by the smartphone.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、タッチスクリーンディスプレイを備える電子機器の例として、スマートフォンについて説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of an electronic device provided with a touch screen display.

(実施形態)
図1及び2を参照しながら、実施形態に係るスマートフォン1の全体的な構成について説明する。図1及び2に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
(Embodiment)
The overall configuration of the smartphone 1 according to the embodiment will be described with reference to FIGS. As shown in FIGS. 1 and 2, the smartphone 1 has a housing 20. The housing 20 includes a front face 1A, a back face 1B, and side faces 1C1 to 1C4. The front face 1 </ b> A is the front of the housing 20. The back face 1 </ b> B is the back surface of the housing 20. The side faces 1C1 to 1C4 are side surfaces that connect the front face 1A and the back face 1B. Hereinafter, the side faces 1C1 to 1C4 may be collectively referred to as the side face 1C without specifying which face.

スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。   The smartphone 1 includes a touch screen display 2, buttons 3A to 3C, an illuminance sensor 4, a proximity sensor 5, a receiver 7, a microphone 8, and a camera 12 on the front face 1A. The smartphone 1 has a speaker 11 and a camera 13 on the back face 1B. The smartphone 1 has buttons 3D to 3F and a connector 14 on the side face 1C. Hereinafter, the buttons 3A to 3F may be collectively referred to as the button 3 without specifying which button.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。図1の例では、ディスプレイ2A及びタッチスクリーン2Bはそれぞれ略長方形状であるが、ディスプレイ2A及びタッチスクリーン2Bの形状はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、それぞれが正方形又は円形等のどのような形状もとりうる。図1の例では、ディスプレイ2A及びタッチスクリーン2Bは重ねて配置されているが、ディスプレイ2A及びタッチスクリーン2Bの配置はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、例えば、並べて配置されてもよいし、離して配置されてもよい。図1の例では、ディスプレイ2Aの長辺はタッチスクリーン2Bの長辺に沿っており、ディスプレイ2Aの短辺はタッチスクリーン2Bの短辺に沿っているが、ディスプレイ2A及びタッチスクリーン2Bの重ね方はこれに限定されない。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。   The touch screen display 2 includes a display 2A and a touch screen 2B. In the example of FIG. 1, the display 2A and the touch screen 2B are substantially rectangular, but the shapes of the display 2A and the touch screen 2B are not limited to this. Each of the display 2A and the touch screen 2B can take any shape such as a square or a circle. In the example of FIG. 1, the display 2 </ b> A and the touch screen 2 </ b> B are overlapped, but the arrangement of the display 2 </ b> A and the touch screen 2 </ b> B is not limited to this. For example, the display 2A and the touch screen 2B may be arranged side by side or may be arranged apart from each other. In the example of FIG. 1, the long side of the display 2A is along the long side of the touch screen 2B, and the short side of the display 2A is along the short side of the touch screen 2B, but the display 2A and the touch screen 2B are overlapped. Is not limited to this. When the display 2A and the touch screen 2B are arranged so as to overlap each other, for example, one or more sides of the display 2A may not be along any side of the touch screen 2B.

ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。   The display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2A displays characters, images, symbols, graphics, and the like.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。以下の説明では、タッチスクリーン2Bに対して接触する指、ペン、又はスタイラスペン等を、「接触オブジェクト」又は「接触物」と呼ぶことがある。   The touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with respect to the touch screen 2B. The touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen, or the like is in contact with the touch screen 2B. In the following description, a finger, pen, stylus pen, or the like that contacts the touch screen 2B may be referred to as a “contact object” or “contact object”.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. In the following description, in order to simplify the description, it is assumed that the user uses the finger to touch the touch screen 2B in order to operate the smartphone 1.

スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。   The smartphone 1 is based on at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. Determine the type of gesture. The gesture is an operation performed on the touch screen 2B. Gestures identified by the smartphone 1 include, but are not limited to, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out, for example.

「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。「ロングタッチ」は、タッチスクリーン2Bに指が一定時間より長く触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間より長く接触するジェスチャをロングタッチとして判別する。   “Touch” is a gesture in which a finger touches the touch screen 2B. The smartphone 1 determines a gesture in which a finger contacts the touch screen 2B as a touch. “Long touch” is a gesture in which a finger touches the touch screen 2B for a longer period of time. The smartphone 1 determines a gesture in which a finger contacts the touch screen 2B for longer than a certain time as a long touch.

「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。   “Release” is a gesture in which a finger leaves the touch screen 2B. The smartphone 1 determines that a gesture in which a finger leaves the touch screen 2B is a release. “Swipe” is a gesture in which a finger moves while touching the touch screen 2B. The smartphone 1 determines a gesture that moves while the finger is in contact with the touch screen 2B as a swipe.

「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。   A “tap” is a gesture for releasing following a touch. The smartphone 1 determines a gesture for releasing following a touch as a tap. The “double tap” is a gesture in which a gesture for releasing following a touch is continued twice. The smartphone 1 determines a gesture in which a gesture for releasing following a touch is continued twice as a double tap.

「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。   “Long tap” is a gesture for releasing following a long touch. The smartphone 1 determines a gesture for releasing following a long touch as a long tap. “Drag” is a gesture for performing a swipe starting from an area where a movable object is displayed. The smartphone 1 determines, as a drag, a gesture for performing a swipe starting from an area where a movable object is displayed.

「フリック」は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャである。すなわち、「フリック」は、タッチに続いて指が移動しながらリリースが行われるジェスチャである。スマートフォン1は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャをフリックとして判別する。フリックは、指が一方方向へ移動しながら行われることが多い。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。フリックにおける指の移動は、スワイプにおける指の移動よりも素早いことが多い。   “Flick” is a gesture in which a finger leaves the touch screen 2B while moving after touching the touch screen 2B. In other words, “flick” is a gesture in which a release is performed while a finger moves following a touch. The smartphone 1 determines, as a flick, a gesture in which the finger leaves the touch screen 2B while moving after touching the touch screen 2B. The flick is often performed while the finger moves in one direction. Flick is "upper flick" where the finger moves upward on the screen, "lower flick" where the finger moves downward on the screen, "right flick" where the finger moves rightward on the screen, finger is left on the screen Including “left flick” moving in the direction. The movement of a finger in a flick is often quicker than the movement of a finger in a swipe.

「ピンチイン」は、複数の指が互いに近づく方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が短くなるジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が長くなるジェスチャをピンチアウトとして判別する。   “Pinch in” is a gesture in which a plurality of fingers are swiped in a direction approaching each other. The smartphone 1 determines, as a pinch-in, a gesture in which the distance between the position of a finger detected by the touch screen 2B and the position of another finger is shortened. “Pinch out” is a gesture of swiping a plurality of fingers away from each other. The smartphone 1 determines, as a pinch-out, a gesture that increases the distance between the position of one finger and the position of another finger detected by the touch screen 2B.

以下の説明では、1本の指により行われるジェスチャを「シングルタッチジェスチャ」と呼び、2本以上の指により行われるジェスチャを「マルチタッチジェスチャ」と呼ぶことがある。マルチタッチジェスチャは、例えば、ピンチインおよびピンチアウトを含む。タップ、フリックおよびスワイプ等は、1本の指で行われればシングルタッチジェスチャであり、2本以上の指で行われればマルチタッチジェスチャである。   In the following description, a gesture performed with one finger may be referred to as a “single touch gesture”, and a gesture performed with two or more fingers may be referred to as a “multi-touch gesture”. Multi-touch gestures include, for example, pinch-in and pinch-out. Taps, flicks, swipes, and the like are single-touch gestures when performed with one finger, and multi-touch gestures when performed with two or more fingers.

スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なることがある。以下の説明では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいてジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォンがXを検出する」、又は「コントローラがXを検出する」と記載することがある。   The smartphone 1 operates according to these gestures that are determined via the touch screen 2B. Therefore, an operability that is intuitive and easy to use for the user is realized. The operation performed by the smartphone 1 according to the determined gesture may differ depending on the screen displayed on the display 2A. In the following description, in order to simplify the description, “the touch screen 2B detects contact and the smartphone 1 determines the gesture type as X based on the detected contact”, “the smartphone determines X May be described as “detect” or “the controller detects X”.

図3は、スマートフォン1のブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。   FIG. 3 is a block diagram of the smartphone 1. The smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, a controller 10, a speaker 11, and a camera. 12 and 13, a connector 14, an acceleration sensor 15, an orientation sensor 16, and a gyroscope 17.

タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。具体的には、コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。   As described above, the touch screen display 2 includes the display 2A and the touch screen 2B. The display 2A displays characters, images, symbols, graphics, or the like. The touch screen 2B detects contact. The controller 10 detects a gesture for the smartphone 1. Specifically, the controller 10 detects an operation (gesture) on the touch screen 2B (touch screen display 2) by cooperating with the touch screen 2B.

ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。   The button 3 is operated by the user. The button 3 includes buttons 3A to 3F. The controller 10 detects an operation on the button 3 by cooperating with the button 3. The operation on the button 3 includes, for example, click, double click, triple click, push, and multi-push, but is not limited thereto.

ボタン3A〜3Cは、例えば、ホームボタン、バックボタン又はメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。   The buttons 3A to 3C are, for example, a home button, a back button, or a menu button. The button 3D is, for example, a power on / off button of the smartphone 1. The button 3D may also serve as a sleep / sleep release button. The buttons 3E and 3F are volume buttons, for example.

照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。   The illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example. The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the touch screen display 2 is brought close to the face. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The communication method supported by the communication unit 6 is a wireless communication standard. Examples of wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. As cellular phone communication standards, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular, GSM (registered trademark) mmloS). (Personal Handy-phone System). As wireless communication standards, for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearCo), etc. The communication unit 6 may support one or more of the communication standards described above.

レシーバ7及びスピーカ11は、音出力部である。レシーバ7及びスピーカ11は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。   The receiver 7 and the speaker 11 are sound output units. The receiver 7 and the speaker 11 output the sound signal transmitted from the controller 10 as sound. The receiver 7 is used, for example, to output the other party's voice during a call. The speaker 11 is used for outputting a ring tone and music, for example. One of the receiver 7 and the speaker 11 may also function as the other. The microphone 8 is a sound input unit. The microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application displays a screen on the display 2A, and causes the controller 10 to execute processing according to a gesture detected via the touch screen 2B. The control program is, for example, an OS. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、例えば、制御プログラム9A、地図アプリケーション9B、ブラウザアプリケーション9C、及び設定データ9Zを記憶する。地図アプリケーション9Bは、現在地又は任意の場所の地図データを表示するための機能、及び表示した地図データを拡大又は縮小するための機能等を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。   The storage 9 stores, for example, a control program 9A, a map application 9B, a browser application 9C, and setting data 9Z. The map application 9B provides a function for displaying map data of the current location or an arbitrary place, a function for enlarging or reducing the displayed map data, and the like. The browser application 9C provides a WEB browsing function for displaying a WEB page. The setting data 9Z includes information related to various settings related to the operation of the smartphone 1.

制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。制御プログラム9Aが提供する機能は、地図アプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。   The control program 9A provides functions related to various controls for operating the smartphone 1. The control program 9A realizes a call by controlling the communication unit 6, the receiver 7, the microphone 8, and the like, for example. The function provided by the control program 9A includes a function of performing various controls such as changing information displayed on the display 2A according to a gesture detected via the touch screen 2B. The function provided by the control program 9A may be used in combination with a function provided by another program such as the map application 9B.

コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。   The controller 10 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto. The controller 10 controls various operations of the smartphone 1 to realize various functions.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The functional unit includes, for example, the display 2A, the communication unit 6, the receiver 7, and the speaker 11, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. The detection unit includes, for example, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, the camera 13, the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17, but is not limited thereto. .

コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行する。   For example, by executing the control program 9A, the controller 10 executes various controls such as changing information displayed on the display 2A according to a gesture detected via the touch screen 2B.

カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。   The camera 12 is an in-camera that captures an object facing the front face 1A. The camera 13 is an out camera that captures an object facing the back face 1B.

コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。   The connector 14 is a terminal to which another device is connected. The connector 14 may be a general-purpose terminal such as USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), Light Peak (Thunderbolt (registered trademark)), and an earphone microphone connector. . The connector 14 may be a dedicated terminal such as a dock connector. Devices connected to the connector 14 include, but are not limited to, external storage, speakers, and communication devices, for example.

加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。   The acceleration sensor 15 detects the direction and magnitude of acceleration acting on the smartphone 1. The direction sensor 16 detects the direction of geomagnetism. The gyroscope 17 detects the angle and angular velocity of the smartphone 1. The detection results of the acceleration sensor 15, the azimuth sensor 16, and the gyroscope 17 are used in combination in order to detect changes in the position and orientation of the smartphone 1.

図3においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図3においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図3においてストレージ9が記憶するプログラム及びデータの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。   In FIG. 3, some or all of the programs and data stored in the storage 9 may be downloaded from another device through wireless communication by the communication unit 6. In FIG. 3, some or all of the programs and data stored in the storage 9 may be stored in a non-transitory storage medium that can be read by the reading device included in the storage 9. 3 may be stored in a non-transitory storage medium that can be read by a reading device connected to the connector 14. Non-transitory storage media include, for example, optical disks such as CD (registered trademark), DVD (registered trademark), and Blu-ray (registered trademark), magneto-optical disks, magnetic storage media, memory cards, and solid-state storage media Including, but not limited to.

図3に示したスマートフォン1の構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図3の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図3に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図3に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。   The configuration of the smartphone 1 shown in FIG. 3 is an example, and may be appropriately changed within a range that does not impair the gist of the present invention. For example, the number and type of buttons 3 are not limited to the example of FIG. The smartphone 1 may include buttons such as a numeric keypad layout or a QWERTY layout as buttons for operations related to the screen instead of the buttons 3A to 3C. The smartphone 1 may include only one button or may not include a button for operations related to the screen. In the example illustrated in FIG. 3, the smartphone 1 includes two cameras, but the smartphone 1 may include only one camera or may not include a camera. In the example illustrated in FIG. 3, the smartphone 1 includes three types of sensors in order to detect the position and orientation, but the smartphone 1 may not include some of these sensors. Alternatively, the smartphone 1 may include another type of sensor for detecting at least one of a position and a posture.

図4を参照しながら、スマートフォン1の画面構成について説明する。図4に示すように、スマートフォン1のタッチスクリーンディスプレイ2(ディスプレイ2A)は、21:9の縦横比を有する。このため、スマートフォン1は、縦横比が21:9の画面60を表示することができる。21:9の縦横比は、映画でしばしば用いられる。   The screen configuration of the smartphone 1 will be described with reference to FIG. As shown in FIG. 4, the touch screen display 2 (display 2A) of the smartphone 1 has an aspect ratio of 21: 9. For this reason, the smartphone 1 can display the screen 60 having an aspect ratio of 21: 9. A 21: 9 aspect ratio is often used in movies.

一方、比較例として示したスマートフォン101のディスプレイ102Aは、16:9の縦横比を有する。このため、スマートフォン1は、縦横比が16:9の画面160を表示することができる。16:9の縦横比は、スマートフォンのディスプレイにおいて、現在最も一般的な縦横比である。   On the other hand, the display 102A of the smartphone 101 shown as the comparative example has an aspect ratio of 16: 9. For this reason, the smartphone 1 can display the screen 160 having an aspect ratio of 16: 9. The 16: 9 aspect ratio is currently the most common aspect ratio for smartphone displays.

ここで、画面160と同じ画面をスマートフォン1のディスプレイ2Aに表示させると、16:9の領域が表示に用いられ、残りの5:9の領域は余白となってしまうことがある。すなわち、一般的な縦横比のディスプレイをもつスマートフォン向けに作成された画面をディスプレイ2Aに表示させると、何も表示されない領域ができてしまうことがある。もちろん、スクロール可能な画面であれば、スクロールによって表示されるはずの部分を表示することによって、5:9の領域を活用することができる。また、画面に配置される項目の間隔を広げることによって、画面を5:9の領域まで引き延ばすこともできる。   Here, if the same screen as the screen 160 is displayed on the display 2A of the smartphone 1, the 16: 9 area may be used for display, and the remaining 5: 9 area may be blank. That is, when a screen created for a smartphone having a general aspect ratio display is displayed on the display 2A, an area where nothing is displayed may be formed. Of course, in the case of a scrollable screen, a 5: 9 region can be utilized by displaying a portion that should be displayed by scrolling. In addition, the screen can be extended to a 5: 9 area by increasing the interval between items arranged on the screen.

しかしながら、画面を引き延ばすと、最適に配置されている項目の間隔が拡がってしまうために、画面の操作性又は視認性が低下してしまうことがある。そこで、スマートフォン1は、縦横比が16:9の第1表示領域61と、縦横比が5:9の第2表示領域62とを画面60に設け、それぞれの領域に別々の情報を表示することができるように構成されている。例えば、スマートフォン1は、第1表示領域61に第1画像を表示させ、第1表示領域61において操作を検出した位置に関する情報を第2表示領域62に表示させる。第1表示領域61と第2表示領域62とに別の情報を表示する機能は、画面60を提供する個々のアプリケーションプログラムによって提供されてもよいし、制御プログラム9Aによって提供されてもよい。   However, when the screen is stretched, the interval between the optimally arranged items is increased, and the operability or visibility of the screen may be reduced. Therefore, the smartphone 1 provides a first display area 61 with an aspect ratio of 16: 9 and a second display area 62 with an aspect ratio of 5: 9 on the screen 60, and displays different information in each area. It is configured to be able to. For example, the smartphone 1 causes the first display area 61 to display the first image, and causes the second display area 62 to display information regarding the position where the operation is detected in the first display area 61. The function of displaying different information in the first display area 61 and the second display area 62 may be provided by an individual application program that provides the screen 60, or may be provided by the control program 9A.

図4では、一般的な縦横比の画面を、縦横比を変更することなく表示することができる領域を第1表示領域61とし、一般的な縦横比の画面を変更することなく表示する場合に余白となる領域を第2表示領域62とする例を示した。しかしながら、第1表示領域61及び第2表示領域62は、これに限定されない。第1表示領域61及び第2表示領域62の面積比、配置、形状、及び向き等は、ディスプレイの縦横比及び表示する情報の種類等に応じて任意に変更してよい。   In FIG. 4, when a general aspect ratio screen can be displayed without changing the aspect ratio, the first display area 61 is used, and the general aspect ratio screen is displayed without changing. The example which made the area | region used as a margin the 2nd display area 62 was shown. However, the first display area 61 and the second display area 62 are not limited to this. The area ratio, arrangement, shape, orientation, and the like of the first display area 61 and the second display area 62 may be arbitrarily changed according to the aspect ratio of the display, the type of information to be displayed, and the like.

図5を参照しながら、スマートフォン1による表示制御の第1の例について説明する。図5は、スマートフォン1による表示制御の第1の例を示す図である。スマートフォン1は、ステップS1では、ブラウザアプリケーション9Cを実行し、ブラウザアプリケーション9Cが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、ブラウザアプリケーション9Cが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によってWEBページを取得し、WEBページを再生して得た第1画像を第1表示領域61に表示している。ステップS1では、第2表示領域62には何も表示されていない。   A first example of display control by the smartphone 1 will be described with reference to FIG. FIG. 5 is a diagram illustrating a first example of display control by the smartphone 1. In step S1, the smartphone 1 executes the browser application 9C and displays the screen 60 provided by the browser application 9C on the touch screen display 2 (display 2A). Specifically, the smartphone 1 acquires a WEB page by Internet communication using the communication unit 6 based on the function provided by the browser application 9C, and first displays a first image obtained by reproducing the WEB page. It is displayed in the area 61. In step S <b> 1, nothing is displayed in the second display area 62.

ステップS2では、利用者の指F1が、画面60の第1表示領域61をタッチしている。スマートフォン1は、第1表示領域61に対する操作を検出すると、第1表示領域61において操作を検出した位置に関する情報を第2表示領域62に表示する。操作を検出した位置に関する情報は、例えば、第1画像のうち、操作を検出した位置に対応する部分を拡大又は縮小した第2画像である。スマートフォン1は、第1表示領域61に表示しているWEBページの表示倍率が閾値よりも小さい場合に、第1画像のうち、操作を検出した位置に対応する部分を拡大して第2表示領域62に表示してもよい。スマートフォン1は、第1表示領域61に表示しているWEBページの表示倍率が閾値よりも小さくない場合に、第1画像のうち、操作を検出した位置に対応する部分を縮小して第2表示領域62に表示してもよい。   In step S <b> 2, the user's finger F <b> 1 touches the first display area 61 of the screen 60. When the smartphone 1 detects an operation on the first display area 61, the smartphone 1 displays information on the position where the operation is detected in the first display area 61 in the second display area 62. The information regarding the position where the operation is detected is, for example, a second image obtained by enlarging or reducing a portion corresponding to the position where the operation is detected in the first image. When the display magnification of the WEB page displayed in the first display area 61 is smaller than the threshold, the smartphone 1 enlarges a portion corresponding to the position where the operation is detected in the first image, and expands the second display area. 62 may be displayed. When the display magnification of the WEB page displayed in the first display area 61 is not smaller than the threshold, the smartphone 1 reduces the portion corresponding to the position where the operation is detected in the first image and performs the second display. You may display in the area | region 62. FIG.

さらに、スマートフォン1は、第1画像のうち、第1表示領域61において操作を検出した位置を示す指標オブジェクト64を、操作を検出した位置に対応する第1画像の部分を拡大又は縮小した第2画像に重ねて第2表示領域62に表示する。   Furthermore, the smartphone 1 enlarges or reduces the index object 64 indicating the position where the operation is detected in the first display area 61 in the first image, by enlarging or reducing the portion of the first image corresponding to the position where the operation is detected. The image is displayed on the second display area 62 so as to overlap the image.

ステップS2で、スマートフォン1が操作を検出した位置の近傍には、リンクオブジェクト63が存在している。このため、ステップS2では、リンクオブジェクト63が周囲と同様に拡大されて第2表示領域62に表示されている。リンクオブジェクト63は、他のWEBページへの参照を含み、スマートフォン1は、リンクオブジェクト63を選択する操作を検出すると、画面60に表示するWEBページを、リンクオブジェクト63が参照しているWEBページへ変更する。リンクオブジェクト63を選択する操作は、例えば、タップである。   In step S2, the link object 63 exists near the position where the smartphone 1 detects the operation. For this reason, in step S <b> 2, the link object 63 is enlarged and displayed in the second display area 62 in the same manner as the surrounding area. The link object 63 includes a reference to another WEB page. When the smartphone 1 detects an operation of selecting the link object 63, the WEB page displayed on the screen 60 is changed to the WEB page referred to by the link object 63. change. The operation for selecting the link object 63 is, for example, a tap.

こうして、ステップS2では、拡大されたリンクオブジェクト63及びその周囲と、第1表示領域61において操作を検出した位置を示す指標オブジェクト64とが第2表示領域62に表示されている。WEBページを縮小表示すると、WEBページ全体を見渡すことが容易になるが、表面積が比較的大きい指で細かい操作を行うことは困難であるために、所望のリンクをうまく操作することができない場合がある。拡大されたリンクオブジェクト63及びその周囲と、指標オブジェクト64とを第2表示領域62に表示することにより、利用者は、現在操作している位置とリンクオブジェクト63の位置との関係を容易に把握することができ、リンクオブジェクト63を操作しやすくなる。   Thus, in step S <b> 2, the enlarged link object 63 and its surroundings and the index object 64 indicating the position where the operation is detected in the first display area 61 are displayed in the second display area 62. When the WEB page is displayed in a reduced size, it becomes easy to look around the entire WEB page, but it is difficult to perform a fine operation with a finger having a relatively large surface area, and thus a desired link may not be operated well. is there. By displaying the enlarged link object 63 and its surroundings and the index object 64 in the second display area 62, the user can easily grasp the relationship between the currently operated position and the position of the link object 63. This makes it easy to operate the link object 63.

ステップS3では、利用者は、把握した位置関係に基づいて指F1の位置を調整し、第1表示領域61においてリンクオブジェクト63をタップしている。このとき、第2表示領域62では、リンクオブジェクト63に指標オブジェクト64が重なって表示されている。スマートフォン1は、第1表示領域61のリンクオブジェクト63に対するタップを検出すると、画面60に表示するWEBページを、リンクオブジェクト63が参照しているWEBページへ変更する。   In step S <b> 3, the user adjusts the position of the finger F <b> 1 based on the grasped positional relationship, and taps the link object 63 in the first display area 61. At this time, in the second display area 62, the index object 64 is displayed so as to overlap the link object 63. When the smartphone 1 detects a tap on the link object 63 in the first display area 61, the smartphone 1 changes the WEB page displayed on the screen 60 to the WEB page referred to by the link object 63.

その結果、ステップS4では、画面60が更新され、リンクオブジェクト63が参照しているWEBページを再生して得た第1画像が第1表示領域61に表示されている。第2表示領域62には何も表示しない状態に戻っている。   As a result, in step S4, the screen 60 is updated, and the first image obtained by reproducing the WEB page referred to by the link object 63 is displayed in the first display area 61. The second display area 62 has returned to a state in which nothing is displayed.

このように、スマートフォン1は、第1表示領域61に第1画像を表示しているときに第1表示領域61に対する操作を検出すると、操作を検出した位置に関する情報を第2表示領域62に表示する。これにより、スマートフォン1は、第1画像のうち、利用者が関心のある部分に関する情報を、第1表示領域61に第1画像を表示したままで第2表示領域62に表示することができる。   As described above, when the smartphone 1 detects an operation on the first display area 61 while displaying the first image in the first display area 61, the smartphone 1 displays information on the position where the operation is detected in the second display area 62. To do. As a result, the smartphone 1 can display information on the portion of the first image that the user is interested in in the second display area 62 while displaying the first image in the first display area 61.

さらに、スマートフォン1は、第1表示領域61において操作を検出した位置を示す指標オブジェクト64を第2表示領域62に表示する。これにより、スマートフォン1は、第1画像のうち、利用者が関心のある部分と、実際に操作された位置との位置関係を利用者に分かりやすく示すことができる。   Furthermore, the smartphone 1 displays an index object 64 indicating the position where the operation is detected in the first display area 61 in the second display area 62. Thereby, the smartphone 1 can easily show the user the positional relationship between the portion of the first image in which the user is interested and the position where the user has actually operated.

図6を参照しながら、スマートフォン1による表示制御の第1の例の処理手順について説明する。図6は、スマートフォン1による表示制御の第1の例の処理手順を示すフローチャートである。図6に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図6に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。以下の説明では、リンクオブジェクトを第1オブジェクトと呼び、指標オブジェクトを第2オブジェクトと呼ぶことがある。   A processing procedure of a first example of display control by the smartphone 1 will be described with reference to FIG. FIG. 6 is a flowchart illustrating a processing procedure of a first example of display control by the smartphone 1. The processing procedure shown in FIG. 6 is realized by the controller 10 executing the control program 9A. The processing procedure shown in FIG. 6 is executed when the controller 10 displays the screen 60 on the display 2A. In the following description, the link object may be referred to as a first object and the index object may be referred to as a second object.

図6に示すように、スマートフォン1のコントローラ10は、ステップS101として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS102として、第1表示領域61において操作を検出したかを判定する。第1表示領域61において操作を検出していない場合(ステップS102,No)、コントローラ10は、ステップS107に進む。   As illustrated in FIG. 6, the controller 10 of the smartphone 1 displays a first image in the first display area 61 of the screen 60 as step S <b> 101. The controller 10 determines whether operation was detected in the 1st display area 61 as step S102. If no operation is detected in the first display area 61 (No at Step S102), the controller 10 proceeds to Step S107.

コントローラ10は、ステップS107として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS107,No)、コントローラ10は、ステップS102に戻る。画面60を別の画面に変更する場合(ステップS107,Yes)、コントローラ10は、図6に示す処理手順を終了させる。   In step S107, the controller 10 determines whether to change the screen 60 to another screen. The case where the screen 60 is changed to another screen includes, for example, a case where the user performs an operation for switching the screen and a case where the screen is forcibly switched by interrupt processing. When the screen 60 is not changed to another screen (step S107, No), the controller 10 returns to step S102. When the screen 60 is changed to another screen (step S107, Yes), the controller 10 ends the processing procedure shown in FIG.

第1表示領域61において操作を検出した場合(ステップS102,Yes)、コントローラ10は、ステップS103に進む。コントローラ10は、ステップS103として、第1表示領域61において操作を検出した位置に関する情報を第2表示領域62に表示させる。そして、コントローラ10は、ステップS104として、第1表示領域61において操作を検出した位置を示す第2オブジェクトを第2表示領域62に表示させる。   When an operation is detected in the first display area 61 (step S102, Yes), the controller 10 proceeds to step S103. The controller 10 causes the second display area 62 to display information regarding the position where the operation is detected in the first display area 61 as step S103. In step S <b> 104, the controller 10 causes the second display area 62 to display a second object indicating the position where the operation is detected in the first display area 61.

続いて、コントローラ10は、ステップS105として、第1オブジェクトの選択を検出したかを判定する。第1オブジェクトの選択を検出している場合(ステップS105,Yes)、コントローラ10は、ステップS106に進む。コントローラ10は、ステップS106として、第1オブジェクトに応じた画像を第1表示領域61に表示し、第2表示領域62をクリアする。第1オブジェクトの選択を検出していない場合(ステップS105,No)、ステップS106は実行されない。   Subsequently, the controller 10 determines whether selection of the first object has been detected as step S105. When selection of the first object is detected (step S105, Yes), the controller 10 proceeds to step S106. In step S106, the controller 10 displays an image corresponding to the first object in the first display area 61 and clears the second display area 62. If selection of the first object has not been detected (No at Step S105), Step S106 is not executed.

その後、コントローラ10は、既に説明したステップS107へ進む。   Thereafter, the controller 10 proceeds to step S107 already described.

スマートフォン1は、第2表示領域62に表示されている第1オブジェクトを選択する操作を検出した場合に、第1表示領域61に表示されている第1オブジェクトを選択する操作を検出した場合と同様の処理を実行してもよい。   The smartphone 1 detects the operation for selecting the first object displayed in the first display area 61 when detecting the operation for selecting the first object displayed in the second display area 62. The process may be executed.

図7を参照しながら、スマートフォン1による表示制御の第2の例について説明する。図7は、スマートフォン1による表示制御の第2の例を示す図である。   A second example of display control by the smartphone 1 will be described with reference to FIG. FIG. 7 is a diagram illustrating a second example of display control by the smartphone 1.

スマートフォン1は、ステップS11では、ブラウザアプリケーション9Cを実行し、ブラウザアプリケーション9Cが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、ブラウザアプリケーション9Cが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によってWEBページを取得し、WEBページを再生して得た第1画像を第1表示領域61に表示している。ステップS11では、第2表示領域62には何も表示されていない。   In step S11, the smartphone 1 executes the browser application 9C and displays the screen 60 provided by the browser application 9C on the touch screen display 2 (display 2A). Specifically, the smartphone 1 acquires a WEB page by Internet communication using the communication unit 6 based on the function provided by the browser application 9C, and first displays a first image obtained by reproducing the WEB page. It is displayed in the area 61. In step S <b> 11, nothing is displayed in the second display area 62.

ステップS11では、利用者の指F1が、画面60の第1表示領域61をタッチしている。タッチされた位置の近傍には、リンクオブジェクト63a及びリンクオブジェクト63bが配置されている。スマートフォン1は、第1表示領域61に対する操作を検出すると、第1表示領域61において操作を検出した位置に関する情報を第2表示領域62に表示する。   In step S <b> 11, the user's finger F <b> 1 touches the first display area 61 of the screen 60. A link object 63a and a link object 63b are arranged in the vicinity of the touched position. When the smartphone 1 detects an operation on the first display area 61, the smartphone 1 displays information on the position where the operation is detected in the first display area 61 in the second display area 62.

表示制御の第2の例では、スマートフォン1は、第1表示領域61に表示している第1画像において、操作を検出した位置の近傍のオブジェクトのうち、操作に対する処理が割り当てられているオブジェクトのみを第2表示領域62に表示する。スマートフォン1は、操作に対する処理が割り当てられているオブジェクトに対する操作を検出すると、そのオブジェクトに割り当てられている処理を実行する。操作に対する処理が割り当てられているオブジェクトは、例えば、リンクオブジェクト及びボタンオブジェクト等である。画面60にWEBページが表示されている場合、WEBページに対応するHTMLファイルを解析することで、操作を検出した位置の近傍のオブジェクトのうち、操作に対する処理が割り当てられているオブジェクトを抽出することができる。   In the second example of display control, the smartphone 1 includes only the objects to which processing for the operation is assigned among the objects near the position where the operation is detected in the first image displayed in the first display area 61. Is displayed in the second display area 62. When the smartphone 1 detects an operation on an object to which a process for the operation is assigned, the smartphone 1 executes the process assigned to the object. Objects to which processing for operations is assigned are, for example, a link object and a button object. When a WEB page is displayed on the screen 60, by analyzing an HTML file corresponding to the WEB page, an object to which processing for the operation is assigned is extracted from objects in the vicinity of the position where the operation is detected. Can do.

ステップS12では、スマートフォン1は、第1表示領域61において操作を検出した位置の近傍に配置されているリンクオブジェクト63a及びリンクオブジェクト63bを第2表示領域62に表示している。さらに、スマートフォン1は、操作を検出した位置を示す指標オブジェクト64を第2表示領域62に表示している。   In step S <b> 12, the smartphone 1 displays the link object 63 a and the link object 63 b arranged in the vicinity of the position where the operation is detected in the first display area 61 in the second display area 62. Furthermore, the smartphone 1 displays an index object 64 indicating the position where the operation is detected in the second display area 62.

このように、スマートフォン1は、第1表示領域61に第1画像を表示しているときに第1表示領域61に対する操作を検出すると、操作を検出した位置に関する情報のうち、操作に対する処理が割り当てられているオブジェクトを第2表示領域62に表示する。これにより、利用者は、操作した位置の近傍に存在する、操作に対する処理が割り当てられているオブジェクトを容易に把握することができる。   As described above, when the smartphone 1 detects an operation on the first display area 61 while displaying the first image in the first display area 61, the process for the operation is assigned among the information on the position where the operation is detected. The displayed object is displayed in the second display area 62. As a result, the user can easily grasp an object that exists in the vicinity of the operated position and to which processing for the operation is assigned.

さらに、スマートフォン1は、第1表示領域61において操作を検出した位置を示す指標オブジェクト64を第2表示領域62に表示する。これにより、スマートフォン1は、利用者が操作しようとしている可能性が高いオブジェクトと、実際に操作された位置との位置関係を利用者に分かりやすく示すことができる。   Furthermore, the smartphone 1 displays an index object 64 indicating the position where the operation is detected in the first display area 61 in the second display area 62. Thereby, the smartphone 1 can easily show the user the positional relationship between the object that is likely to be operated by the user and the actually operated position.

図8を参照しながら、スマートフォン1による表示制御の第2の例の処理手順について説明する。図8は、スマートフォン1による表示制御の第2の例の処理手順を示すフローチャートである。図8に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図8に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。   A processing procedure of a second example of display control by the smartphone 1 will be described with reference to FIG. FIG. 8 is a flowchart illustrating a processing procedure of a second example of display control by the smartphone 1. The processing procedure shown in FIG. 8 is realized by the controller 10 executing the control program 9A. The processing procedure shown in FIG. 8 is executed when the controller 10 displays the screen 60 on the display 2A.

図8に示すように、スマートフォン1のコントローラ10は、ステップS201として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS202として、第1表示領域61において操作を検出したかを判定する。第1表示領域61において操作を検出していない場合(ステップS202,No)、コントローラ10は、ステップS207に進む。   As shown in FIG. 8, the controller 10 of the smartphone 1 displays a first image in the first display area 61 of the screen 60 as step S201. The controller 10 determines whether operation was detected in the 1st display area 61 as step S202. When no operation is detected in the first display area 61 (No at Step S202), the controller 10 proceeds to Step S207.

コントローラ10は、ステップS207として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS207,No)、コントローラ10は、ステップS202に戻る。画面60を別の画面に変更する場合(ステップS207,Yes)、コントローラ10は、図8に示す処理手順を終了させる。   In step S207, the controller 10 determines whether to change the screen 60 to another screen. The case where the screen 60 is changed to another screen includes, for example, a case where the user performs an operation for switching the screen and a case where the screen is forcibly switched by interrupt processing. When the screen 60 is not changed to another screen (step S207, No), the controller 10 returns to step S202. When the screen 60 is changed to another screen (step S207, Yes), the controller 10 ends the processing procedure shown in FIG.

第1表示領域61において操作を検出した場合(ステップS202,Yes)、コントローラ10は、ステップS203に進む。コントローラ10は、ステップS203として、第1表示領域61において操作を検出した位置の近傍に配置されている第1オブジェクトを第2表示領域62に表示させる。そして、コントローラ10は、ステップS204として、第1表示領域61において操作を検出した位置を示す第2オブジェクトを第2表示領域62に表示させる。   When an operation is detected in the first display area 61 (step S202, Yes), the controller 10 proceeds to step S203. The controller 10 causes the second display area 62 to display the first object arranged in the vicinity of the position where the operation is detected in the first display area 61 as step S203. Then, the controller 10 causes the second display area 62 to display a second object indicating the position where the operation is detected in the first display area 61 as step S204.

続いて、コントローラ10は、ステップS205として、第1オブジェクトの選択を検出したかを判定する。第1オブジェクトの選択を検出している場合(ステップS205,Yes)、コントローラ10は、ステップS206に進む。コントローラ10は、ステップS206として、第1オブジェクトに応じた画像を第1表示領域61に表示し、第2表示領域62をクリアする。第1オブジェクトの選択を検出していない場合(ステップS205,No)、コントローラ10は、ステップS206は実行されない。   Subsequently, the controller 10 determines whether selection of the first object has been detected as step S205. When the selection of the first object is detected (step S205, Yes), the controller 10 proceeds to step S206. In step S206, the controller 10 displays an image corresponding to the first object in the first display area 61 and clears the second display area 62. When the selection of the first object is not detected (No at Step S205), the controller 10 does not execute Step S206.

その後、コントローラ10は、既に説明したステップS207に進む。   Thereafter, the controller 10 proceeds to step S207 already described.

スマートフォン1は、第2表示領域62に表示されている第1オブジェクトを選択する操作を検出した場合に、第1表示領域61に表示されている第1オブジェクトを選択する操作を検出した場合と同様の処理を実行してもよい。   The smartphone 1 detects the operation for selecting the first object displayed in the first display area 61 when detecting the operation for selecting the first object displayed in the second display area 62. The process may be executed.

図9を参照しながら、スマートフォン1による表示制御の第2の例の変形例について説明する。図9は、スマートフォン1による表示制御の第2の例の変形例を示す図である。   A modification of the second example of display control by the smartphone 1 will be described with reference to FIG. FIG. 9 is a diagram illustrating a modification of the second example of display control by the smartphone 1.

スマートフォン1は、ステップS21では、ブラウザアプリケーション9Cを実行し、ブラウザアプリケーション9Cが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、ブラウザアプリケーション9Cが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によってWEBページを取得し、WEBページを再生して得た第1画像を第1表示領域61に表示している。ステップS21では、第2表示領域62には何も表示されていない。   In step S21, the smartphone 1 executes the browser application 9C and displays the screen 60 provided by the browser application 9C on the touch screen display 2 (display 2A). Specifically, the smartphone 1 acquires a WEB page by Internet communication using the communication unit 6 based on the function provided by the browser application 9C, and first displays a first image obtained by reproducing the WEB page. It is displayed in the area 61. In step S21, nothing is displayed in the second display area 62.

ステップS21では、利用者の指F1が、画面60の第1表示領域61をタッチしている。タッチされた位置の近傍には、リンクオブジェクト63a及びリンクオブジェクト63bが配置されている。スマートフォン1は、第1表示領域61に対する操作を検出すると、第1表示領域61において操作を検出した位置に関する情報を第2表示領域62に表示する。   In step S <b> 21, the user's finger F <b> 1 touches the first display area 61 of the screen 60. A link object 63a and a link object 63b are arranged in the vicinity of the touched position. When the smartphone 1 detects an operation on the first display area 61, the smartphone 1 displays information on the position where the operation is detected in the first display area 61 in the second display area 62.

上述した表示制御の第2の例では、スマートフォン1は、第1表示領域61において操作を検出した位置の近傍の、操作に対する処理が割り当てられているオブジェクトを、第1表示領域における配置及び表示形態を維持したままで第2表示領域62に表示する。一方、この変形例では、スマートフォン1は、第1表示領域61において操作を検出した位置の近傍の、操作に対する処理が割り当てられているオブジェクトを、一覧形式で第2表示領域62に表示する。ステップS22では、リンクオブジェクト63aに対応するリストアイテム62aと、リンクオブジェクト63bに対応するリストアイテム62bとを含むリストを第2表示領域62に表示している。   In the second example of display control described above, the smartphone 1 arranges an object to which processing for an operation is assigned in the vicinity of the position where the operation is detected in the first display area 61 in the first display area. Is displayed in the second display area 62 while maintaining. On the other hand, in this modification, the smartphone 1 displays, in a list format, objects that are assigned processing for operations in the vicinity of the position where the operation is detected in the first display area 61 in the second display area 62. In step S22, a list including a list item 62a corresponding to the link object 63a and a list item 62b corresponding to the link object 63b is displayed in the second display area 62.

このように、スマートフォン1は、第1表示領域61に第1画像を表示しているときに第1表示領域61に対する操作を検出すると、第1表示領域61において操作を検出した位置に関する情報のうち、操作に対する処理が割り当てられているオブジェクトを第2表示領域62に一覧表示する。これにより、利用者は、第1表示領域61において操作した位置の近傍に存在する、操作に対する処理が割り当てられているオブジェクトをさらに容易に把握することができる。   As described above, when the smartphone 1 detects an operation on the first display area 61 while displaying the first image on the first display area 61, the information on the position where the operation is detected in the first display area 61 is included. A list of objects to which processing for the operation is assigned is displayed in the second display area 62. As a result, the user can more easily grasp an object that is present in the vicinity of the operated position in the first display area 61 and to which a process for the operation is assigned.

スマートフォン1は、第2表示領域62に表示されているリストアイテムを選択する操作を検出した場合に、第1表示領域61に表示されている対応する第1オブジェクトを選択する操作を検出した場合と同様の処理を実行してもよい。   When the smartphone 1 detects an operation for selecting a list item displayed in the second display area 62, the smartphone 1 detects an operation for selecting a corresponding first object displayed in the first display area 61. Similar processing may be executed.

図10を参照しながら、スマートフォン1による表示制御の第3の例について説明する。図10は、スマートフォン1による表示制御の第3の例を示す図である。スマートフォン1は、ステップS31では、ブラウザアプリケーション9Cを実行し、ブラウザアプリケーション9Cが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、ブラウザアプリケーション9Cが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によってWEBページを取得し、WEBページを再生した第1画像を第1表示領域61に表示している。ステップS31では、第2表示領域62には何も表示されていない。   A third example of display control by the smartphone 1 will be described with reference to FIG. FIG. 10 is a diagram illustrating a third example of display control by the smartphone 1. In step S31, the smartphone 1 executes the browser application 9C and displays the screen 60 provided by the browser application 9C on the touch screen display 2 (display 2A). Specifically, the smartphone 1 acquires a WEB page by Internet communication using the communication unit 6 based on the function provided by the browser application 9 </ b> C, and displays a first image obtained by reproducing the WEB page in the first display area 61. it's shown. In step S31, nothing is displayed in the second display area 62.

スマートフォン1は、タッチスクリーン2Bに近接する物体の位置を検出する機能を有している。具体的には、スマートフォン1は、タッチスクリーン2Bの感度を高くすることによって、タッチスクリーンディスプレイ2に接触している物体だけでなく、タッチスクリーンディスプレイ2に近接している物体の位置を3次元的に検出することができる。すなわち、スマートフォン1は、近接している物体に最も近いタッチスクリーンディスプレイ2の表面上の位置の座標と、近接している物体とタッチスクリーンディスプレイ2の表面との距離とを検出することができる。タッチスクリーンディスプレイ2の近傍に位置する物体の検出方法は、これに限定されない。例えば、スマートフォン1は、カメラ12が撮影する画像、又はタッチスクリーンディスプレイ2に複数配置された受光素子の検出信号に基づいて、タッチスクリーンディスプレイ2に近接する物体の位置を検出してもよい。   The smartphone 1 has a function of detecting the position of an object close to the touch screen 2B. Specifically, the smartphone 1 increases the sensitivity of the touch screen 2 </ b> B so that not only the object in contact with the touch screen display 2 but also the position of the object close to the touch screen display 2 is three-dimensionally displayed. Can be detected. That is, the smartphone 1 can detect the coordinates of the position on the surface of the touch screen display 2 that is closest to the adjacent object and the distance between the adjacent object and the surface of the touch screen display 2. The detection method of the object located in the vicinity of the touch screen display 2 is not limited to this. For example, the smartphone 1 may detect the position of an object close to the touch screen display 2 based on an image captured by the camera 12 or detection signals of a plurality of light receiving elements arranged on the touch screen display 2.

ステップS32では、利用者の指F1が、画面60の第1表示領域61に近接し、スマートフォン1が検出可能な範囲に位置している。スマートフォン1は、第1表示領域61に近接している物体を検出すると、第1画像のうち、近接している物体に最も近い部分を拡大した第2画像を第2表示領域62に表示する。第2画像の表示倍率は、近接している物体とタッチスクリーンディスプレイ2との距離に基づいて決定される。具体的には、第2画像の表示倍率は、近接している物体とタッチスクリーンディスプレイ2との距離が近いほど高くなる。このため、第2画像は、指F1がタッチスクリーンディスプレイ2に近づくほど拡大され、指F1がタッチスクリーンディスプレイ2から遠ざかるほど縮小される。   In step S <b> 32, the user's finger F <b> 1 is close to the first display area 61 of the screen 60 and is located in a range where the smartphone 1 can be detected. When the smartphone 1 detects an object close to the first display area 61, the smartphone 1 displays a second image obtained by enlarging a portion closest to the close object in the first image in the second display area 62. The display magnification of the second image is determined based on the distance between the close object and the touch screen display 2. Specifically, the display magnification of the second image becomes higher as the distance between the adjacent object and the touch screen display 2 is shorter. For this reason, the second image is enlarged as the finger F1 approaches the touch screen display 2, and is reduced as the finger F1 moves away from the touch screen display 2.

ステップS33では、利用者の指F1が、タッチスクリーンディスプレイ2の面方向に沿って水平に移動している。スマートフォン1は、物体がほぼ水平に移動していることを検出すると、第1画像のうち第2画像として表示する部分の移動、及び第2画像の表示倍率の変更を行わずに、第1画像及び第2画像をそのまま表示させる。その結果、利用者は、第1表示領域61及び第2表示領域62の内容を維持したままで、指F1を第2表示領域62に近接する位置まで移動させることができる。   In step S <b> 33, the user's finger F <b> 1 moves horizontally along the surface direction of the touch screen display 2. When the smartphone 1 detects that the object is moving substantially horizontally, the first image is displayed without moving the portion displayed as the second image in the first image and changing the display magnification of the second image. The second image is displayed as it is. As a result, the user can move the finger F <b> 1 to a position close to the second display area 62 while maintaining the contents of the first display area 61 and the second display area 62.

ほぼ水平な移動は、利用者が指F1を水平に移動させようとした場合に一般的に生じる上下方向の変位を許容することが好ましい。スマートフォン1は、指F1の移動する軌跡が上方向又は下方向に所定の範囲で傾いている場合でも、指F1がほぼ水平に移動していると判定することが好ましい。所定の範囲は、例えば±10度程度である。   It is preferable that the substantially horizontal movement allows the vertical displacement that generally occurs when the user tries to move the finger F1 horizontally. The smartphone 1 preferably determines that the finger F1 is moving substantially horizontally even when the locus of movement of the finger F1 is inclined in a predetermined range upward or downward. The predetermined range is, for example, about ± 10 degrees.

ステップS34では、利用者の指F1が、第2表示領域62において、リンクオブジェクト63をタップしている。スマートフォン1は、タッチスクリーンディスプレイ2に対する物体の接触を検出すると、どのような操作が行われたかを判定し、判定した操作に応じた処理を実行する。スマートフォン1は、リンクオブジェクト63に対するタップを検出すると、ステップS35として、リンクオブジェクト63に応じた画像を、第1表示領域61に表示する。   In step S <b> 34, the user's finger F <b> 1 taps the link object 63 in the second display area 62. When the smartphone 1 detects contact of an object with the touch screen display 2, the smartphone 1 determines what operation has been performed, and executes processing according to the determined operation. When the smartphone 1 detects a tap on the link object 63, the smartphone 1 displays an image corresponding to the link object 63 in the first display area 61 as step S35.

このように、スマートフォン1は、第1表示領域61に近接している物体とタッチスクリーンディスプレイ2との距離に応じて、第2表示領域62に表示する情報の表示倍率を変更する。これにより、スマートフォン1は、第2表示領域62に表示する情報の表示倍率の変更を、直感的な操作により可能にし、利用者の利便性を向上させることができる。   As described above, the smartphone 1 changes the display magnification of the information displayed in the second display area 62 according to the distance between the object close to the first display area 61 and the touch screen display 2. Thereby, the smartphone 1 can change the display magnification of the information displayed in the second display area 62 by an intuitive operation, and can improve the convenience for the user.

図11を参照しながら、スマートフォン1による表示制御の第3の例の処理手順について説明する。図11は、スマートフォン1による表示制御の第3の例の処理手順を示すフローチャートである。図11に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図11に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。   A processing procedure of a third example of display control by the smartphone 1 will be described with reference to FIG. FIG. 11 is a flowchart illustrating a processing procedure of a third example of display control by the smartphone 1. The processing procedure shown in FIG. 11 is realized by the controller 10 executing the control program 9A. The processing procedure shown in FIG. 11 is executed when the controller 10 displays the screen 60 on the display 2A.

図11に示すように、スマートフォン1のコントローラ10は、ステップS301として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS302として、タッチスクリーンディスプレイ2に近接又は接触している物体を検出したかを判定する。物体を検出していない場合(ステップS302,No)、コントローラ10は、ステップS308に進む。   As shown in FIG. 11, the controller 10 of the smartphone 1 displays the first image in the first display area 61 of the screen 60 as step S301. The controller 10 determines whether the object which adjoined or touched the touch screen display 2 was detected as step S302. When an object is not detected (No at Step S302), the controller 10 proceeds to Step S308.

コントローラ10は、ステップS308として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS308,No)、コントローラ10は、ステップS302に戻る。画面60を別の画面に変更する場合(ステップS308,Yes)、コントローラ10は、図11に示す処理手順を終了させる。   In step S308, the controller 10 determines whether to change the screen 60 to another screen. The case where the screen 60 is changed to another screen includes, for example, a case where the user performs an operation for switching the screen and a case where the screen is forcibly switched by interrupt processing. When the screen 60 is not changed to another screen (No at Step S308), the controller 10 returns to Step S302. When the screen 60 is changed to another screen (step S308, Yes), the controller 10 ends the processing procedure shown in FIG.

物体を検出した場合(ステップS302,Yes)、コントローラ10は、ステップS303として、物体がタッチスクリーンディスプレイ2に接触があったかを判定する。接触があった場合(ステップS304,Yes)、コントローラ10は、ステップS305として、どのような操作が行われたかを判定する。操作が検出されなかった場合(ステップS306,No)、コントローラ10は、既に説明したステップS308に進む。操作が検出された場合(ステップS306,Yes)、コントローラ10は、ステップS307として、操作に応じた処理を実行する。そして、コントローラ10は、既に説明したステップS308に進む。   When an object is detected (step S302, Yes), the controller 10 determines whether the object has touched the touch screen display 2 as step S303. When there is a contact (step S304, Yes), the controller 10 determines what operation was performed as step S305. When no operation is detected (No at Step S306), the controller 10 proceeds to Step S308 already described. When an operation is detected (Yes in step S306), the controller 10 executes a process corresponding to the operation as step S307. Then, the controller 10 proceeds to step S308 already described.

接触がなかった場合(ステップS304,No)、コントローラ10は、ステップS309に進む。コントローラ10は、ステップS309として、物体がタッチスクリーンディスプレイ2に対してほぼ水平に移動しているかを判定する。物体がほぼ水平に移動していない場合(ステップS309,No)、コントローラ10は、ステップS310に進む。コントローラ10は、ステップS310として、第1画像のうち検出位置に対応する部分を第2画像として、物体とタッチスクリーンディスプレイ2との距離に応じた表示倍率で第2表示領域62に表示させる。物体がほぼ水平に移動している場合(ステップS309,Yes)、ステップS310は実行されない。   When there is no contact (step S304, No), the controller 10 proceeds to step S309. In step S309, the controller 10 determines whether the object is moving substantially horizontally with respect to the touch screen display 2. When the object has not moved substantially horizontally (step S309, No), the controller 10 proceeds to step S310. In step S310, the controller 10 displays a portion corresponding to the detection position in the first image as the second image in the second display area 62 at a display magnification corresponding to the distance between the object and the touch screen display 2. When the object is moving almost horizontally (step S309, Yes), step S310 is not executed.

その後、コントローラ10は、既に説明したステップS308に進む。   Thereafter, the controller 10 proceeds to step S308 already described.

この例では、物体がタッチスクリーンディスプレイ2に対してほぼ水平に移動している場合に、第1表示領域61及び第2表示領域62の内容を維持したが、表示制御はこれに限定されない。スマートフォン1は、物体がタッチスクリーンディスプレイ2に対してほぼ水平に移動していることを検出した場合に、移動方向に応じて、第1表示領域61及び第2表示領域62のいずれか、又は両方の内容をスクロールさせてもよい。   In this example, when the object is moving substantially horizontally with respect to the touch screen display 2, the contents of the first display area 61 and the second display area 62 are maintained, but the display control is not limited to this. When the smartphone 1 detects that the object is moving substantially horizontally with respect to the touch screen display 2, one or both of the first display area 61 and the second display area 62 are selected according to the moving direction. You may scroll the contents.

図12を参照しながら、スマートフォン1による表示制御の第4の例について説明する。図12は、スマートフォン1による表示制御の第4の例を示す図である。   A fourth example of display control by the smartphone 1 will be described with reference to FIG. FIG. 12 is a diagram illustrating a fourth example of display control by the smartphone 1.

スマートフォン1は、ステップS41では、地図アプリケーション9Bを実行し、地図アプリケーション9Bが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、地図アプリケーション9Bが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によって地図データを取得し、地図データから生成した第1画像を画面60の第1表示領域61に表示する。第2表示領域62には何かしらの情報が表示されていてもよいし、何も表示されていなくてもよい。   In step S41, the smartphone 1 executes the map application 9B and displays the screen 60 provided by the map application 9B on the touch screen display 2 (display 2A). Specifically, the smartphone 1 acquires map data by Internet communication using the communication unit 6 based on the function provided by the map application 9B, and displays a first image generated from the map data on the first display of the screen 60. Display in area 61. Some information may be displayed in the second display area 62, or nothing may be displayed.

ステップS42では、利用者が、第1表示領域61に表示されている第1画像を拡大するために、指F1及び指F2を用いて、第1表示領域61でピンチアウトを開始している。この例では、利用者は、両手を使ってピンチアウトを行っているが、ピンチアウトは片手で行うこともできる。   In step S <b> 42, the user starts pinching out in the first display area 61 using the finger F <b> 1 and the finger F <b> 2 in order to enlarge the first image displayed in the first display area 61. In this example, the user performs pinch out using both hands, but pinch out can also be performed with one hand.

スマートフォン1には、第1表示領域61でのピンチ操作の操作量に関して閾値が設定されている。ピンチ操作の操作量とは、例えば、2本の指の移動量の合計である。第1表示領域61でのピンチ操作が開始されると、スマートフォン1は、第1画像のうちピンチ操作の開始位置の中心に対応する部分を、第1画像と同じ表示倍率で第2画像として第2表示領域62に表示する。そして、第1表示領域61でのピンチ操作の操作量が閾値に達するまでは、スマートフォン1は、ステップS43のように、第1表示領域61に表示されている第1画像を拡大せずに、第2表示領域62に表示されている第2画像を操作量に応じて拡大させる。   A threshold is set for the operation amount of the pinch operation in the first display area 61 in the smartphone 1. The operation amount of the pinch operation is, for example, the total movement amount of two fingers. When the pinch operation in the first display area 61 is started, the smartphone 1 sets the portion corresponding to the center of the start position of the pinch operation in the first image as the second image at the same display magnification as the first image. 2 in the display area 62. Then, until the operation amount of the pinch operation in the first display area 61 reaches the threshold, the smartphone 1 does not enlarge the first image displayed in the first display area 61 as in step S43. The second image displayed in the second display area 62 is enlarged according to the operation amount.

ピンチ操作による拡大は、通常、ピンチ操作の開始位置の中心(2つの指が移動を開始した位置の中心)を基準として行われるが、2つの指の中心に拡大したい部分が位置するように指をタッチスクリーンディスプレイ2に正確に置くのが難しいことがある。このため、拡大が開始されて初めて、指を置く位置がずれていたことに気付くことがある。この場合、拡大が実行された後に誤操作に気付くため、拡大前のどの部分を誤って拡大したのかを利用者が容易に把握できずに困ることがある。   Enlargement by the pinch operation is normally performed with reference to the center of the start position of the pinch operation (the center of the position where the two fingers start moving). May be difficult to place on the touch screen display 2 accurately. For this reason, it may be noticed that the position where the finger is placed is shifted only after the enlargement is started. In this case, since an erroneous operation is noticed after the enlargement is executed, the user may not be able to easily grasp which part before the enlargement was accidentally enlarged.

ピンチの操作量が閾値に達するまでは第2表示領域62の第2画像のみを拡大することにより、利用者は、所望の部分が拡大されているかを確認しながらピンチを実行できる。さらに、第1表示領域61の第1画像は拡大されていないため、利用者は、指を置く位置がずれていたことに気付いた場合に、位置を容易に修正することができる。このような効果を得るために、ピンチ操作の操作量に関する閾値は、利用者が第2画像を見て所望の位置が拡大されているか否かを確認することができる程度の値に設定される。   By enlarging only the second image in the second display area 62 until the operation amount of the pinch reaches the threshold, the user can execute the pinch while confirming whether a desired portion is enlarged. Furthermore, since the first image in the first display area 61 is not enlarged, the user can easily correct the position when the user notices that the position where the finger is placed is shifted. In order to obtain such an effect, the threshold value related to the operation amount of the pinch operation is set to a value that allows the user to check whether the desired position is enlarged by looking at the second image. .

利用者は、所望の位置が拡大されていることを確認すると、ピンチを継続して実行する。そして、ピンチ操作の操作量が閾値に達すると、ステップS44のように、第1表示領域61に表示されている第1画像を操作量に応じて拡大させ始める。スマートフォン1は、ピンチ操作の操作量が閾値に達したときに、一瞬のうちに、それまでの操作量に応じた倍率で第1画像を拡大させてもよい。あるいは、スマートフォン1は、ピンチ操作の操作量が閾値に達したときに、1〜数秒の時間をかけて、それまでの操作量に応じた倍率になるまで第1画像を徐々に拡大させてもよい。その後は、第1表示領域61の第1画像は、利用者のピンチ操作に応じて、拡大又は縮小される。   When the user confirms that the desired position is enlarged, the user continues to pinch. When the operation amount of the pinch operation reaches the threshold value, the first image displayed in the first display area 61 starts to be enlarged according to the operation amount as in step S44. When the operation amount of the pinch operation reaches the threshold value, the smartphone 1 may enlarge the first image at a magnification corresponding to the operation amount until then in a moment. Alternatively, when the operation amount of the pinch operation reaches the threshold value, the smartphone 1 takes 1 to several seconds and gradually enlarges the first image until the magnification according to the operation amount is reached. Good. Thereafter, the first image in the first display area 61 is enlarged or reduced according to the user's pinch operation.

図13を参照しながら、スマートフォン1による表示制御の第4の例の処理手順について説明する。図13は、スマートフォン1による表示制御の第4の例の処理手順を示すフローチャートである。図13に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図13に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。   A processing procedure of a fourth example of display control by the smartphone 1 will be described with reference to FIG. FIG. 13 is a flowchart illustrating a processing procedure of a fourth example of display control by the smartphone 1. The processing procedure shown in FIG. 13 is realized by the controller 10 executing the control program 9A. The processing procedure shown in FIG. 13 is executed when the controller 10 displays the screen 60 on the display 2A.

図13に示すように、スマートフォン1のコントローラ10は、ステップS401として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS402として、第1表示領域61に対するピンチ操作を検出したかを判定する。ピンチ操作を検出していない場合(ステップS402,No)、コントローラ10は、ステップS406に進む。   As illustrated in FIG. 13, the controller 10 of the smartphone 1 displays a first image in the first display area 61 of the screen 60 as step S401. The controller 10 determines whether the pinch operation with respect to the 1st display area 61 was detected as step S402. When the pinch operation is not detected (No at Step S402), the controller 10 proceeds to Step S406.

コントローラ10は、ステップS406として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS406,No)、コントローラ10は、ステップS402に戻る。画面60を別の画面に変更する場合(ステップS406,Yes)、コントローラ10は、図13に示す処理手順を終了させる。   In step S406, the controller 10 determines whether to change the screen 60 to another screen. The case where the screen 60 is changed to another screen includes, for example, a case where the user performs an operation for switching the screen and a case where the screen is forcibly switched by interrupt processing. When the screen 60 is not changed to another screen (step S406, No), the controller 10 returns to step S402. When the screen 60 is changed to another screen (step S406, Yes), the controller 10 ends the processing procedure shown in FIG.

ピンチ操作を検出した場合(ステップS402,Yes)、コントローラ10は、ステップS403に進む。コントローラ10は、ステップS403として、ピンチ操作の操作量が上記の閾値に到達したかを判定する。操作量が閾値に達していない場合(ステップS403,No)、コントローラ10は、ステップS404に進む。コントローラ10は、ステップS404として、第1表示領域61の倍率を保持したままで、第1画像のうち操作位置に対応する部分を第2画像として、操作量に応じた倍率で第2表示領域62に表示させる。そして、コントローラ10は、既に説明したステップS406に進む。   When the pinch operation is detected (step S402, Yes), the controller 10 proceeds to step S403. In step S403, the controller 10 determines whether the operation amount of the pinch operation has reached the threshold value. When the operation amount has not reached the threshold value (No at Step S403), the controller 10 proceeds to Step S404. In step S404, the controller 10 retains the magnification of the first display area 61, sets the portion corresponding to the operation position in the first image as the second image, and sets the second display area 62 at a magnification corresponding to the operation amount. To display. Then, the controller 10 proceeds to step S406 already described.

操作量が閾値に達している場合(ステップS403,Yes)、コントローラ10は、ステップS405に進む。コントローラ10は、ステップS405として、第1表示領域61に表示させている第1画像の倍率を操作量に応じて変更し、変更した倍率で第1画像を表示させる。そして、コントローラ10は、既に説明したステップS406に進む。   When the operation amount has reached the threshold value (step S403, Yes), the controller 10 proceeds to step S405. In step S405, the controller 10 changes the magnification of the first image displayed in the first display area 61 according to the operation amount, and displays the first image at the changed magnification. Then, the controller 10 proceeds to step S406 already described.

図14を参照しながら、スマートフォン1による表示制御の第5の例について説明する。図14は、スマートフォン1による表示制御の第5の例を示す図である。   A fifth example of display control by the smartphone 1 will be described with reference to FIG. FIG. 14 is a diagram illustrating a fifth example of display control by the smartphone 1.

スマートフォン1は、ステップS51では、地図アプリケーション9Bを実行し、地図アプリケーション9Bが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、地図アプリケーション9Bが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によって地図データを取得し、地図データから生成した第1画像を画面60の第1表示領域61に表示する。第2表示領域62には何かしらの情報が表示されていてもよいし、何も表示されていなくてもよい。   In step S51, the smartphone 1 executes the map application 9B and displays the screen 60 provided by the map application 9B on the touch screen display 2 (display 2A). Specifically, the smartphone 1 acquires map data by Internet communication using the communication unit 6 based on the function provided by the map application 9B, and displays a first image generated from the map data on the first display of the screen 60. Display in area 61. Some information may be displayed in the second display area 62, or nothing may be displayed.

ステップS52では、第1表示領域61に表示されている地図データを拡大したい利用者の指F1が、第1表示領域61に対してダブルタップしている。スマートフォン1は、第1表示領域61に対するダブルタップの操作を検出すると、ステップS53として、第1表示領域61の地図データを拡大した第2画像(情報)を第2表示領域62に表示する。第2画像の拡大倍率は、予め決められていてもよいし、操作の種類、回数、間隔、及び強度等に応じて決定してもよい。第2画像の拡大倍率を変化させる操作は、ダブルタップではなく、ロングタッチ等の他の操作でもよい。   In step S <b> 52, the finger F <b> 1 of the user who wants to enlarge the map data displayed in the first display area 61 has double-tapped the first display area 61. When the smartphone 1 detects a double tap operation on the first display area 61, the smartphone 1 displays a second image (information) obtained by enlarging the map data of the first display area 61 in the second display area 62 as step S <b> 53. The magnification of the second image may be determined in advance, or may be determined according to the type, number of operations, interval, intensity, and the like of the operation. The operation for changing the magnification of the second image may be other operations such as a long touch instead of a double tap.

スマートフォン1は、第1表示領域61において操作を検出した位置に対応する位置を示す指標オブジェクト64を第1表示領域61及び第2表示領域62に表示する。さらに、スマートフォン1は、第2画像の拡大倍率を示す倍率オブジェクト66を第2表示領域62に表示する。ステップS53では、第2画像の拡大倍率が「5」倍であることを示す倍率オブジェクト66が第2表示領域62に表示されている。   The smartphone 1 displays the index object 64 indicating the position corresponding to the position where the operation is detected in the first display area 61 in the first display area 61 and the second display area 62. Furthermore, the smartphone 1 displays a magnification object 66 indicating the magnification of the second image in the second display area 62. In step S <b> 53, a magnification object 66 indicating that the magnification of the second image is “5” is displayed in the second display area 62.

このように、スマートフォン1が第1表示領域61に地図データを表示する場合に、第1表示領域61に対するダブルタップの操作を検出すると、拡大又は縮小された第2画像と第2画像の表示倍率とを第2表示領域62に表示する。これにより、スマートフォン1は、第1表示領域61に表示している第1画像を利用者に簡単な操作で拡大させることができる。本実施形態では、スマートフォン1は、第1画像に対する所定の操作を検出した場合に、第1画像を拡大させる場合について説明したが、これに限定されない。例えば、スマートフォン1は、第1画像に対する所定の操作を検出した場合に、第1画像を縮小させるように構成されてもよい。   As described above, when the smartphone 1 displays map data in the first display area 61, when a double-tap operation on the first display area 61 is detected, the display magnifications of the enlarged and reduced second image and second image are displayed. Are displayed in the second display area 62. Thereby, the smartphone 1 can enlarge the first image displayed in the first display area 61 to the user by a simple operation. In this embodiment, although the smart phone 1 demonstrated the case where a 1st image was expanded when the predetermined | prescribed operation with respect to a 1st image was detected, it is not limited to this. For example, the smartphone 1 may be configured to reduce the first image when a predetermined operation on the first image is detected.

図15を参照しながら、スマートフォン1による表示制御の第5の例の処理手順について説明する。図15は、スマートフォン1による表示制御の第5の例の処理手順を示すフローチャートである。図15に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図15に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。   A processing procedure of a fifth example of display control by the smartphone 1 will be described with reference to FIG. FIG. 15 is a flowchart illustrating a processing procedure of a fifth example of display control by the smartphone 1. The processing procedure shown in FIG. 15 is realized by the controller 10 executing the control program 9A. The processing procedure shown in FIG. 15 is executed when the controller 10 displays the screen 60 on the display 2A.

図15に示すように、スマートフォン1のコントローラ10は、ステップS501として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS502として、第1表示領域61に対する操作を検出したかを判定する。操作を検出していない場合(ステップS502,No)、コントローラ10は、ステップS506に進む。   As illustrated in FIG. 15, the controller 10 of the smartphone 1 displays a first image in the first display area 61 of the screen 60 as step S501. The controller 10 determines whether operation with respect to the 1st display area 61 was detected as step S502. When the operation is not detected (No at Step S502), the controller 10 proceeds to Step S506.

コントローラ10は、ステップS506として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS506,No)、コントローラ10は、ステップS502に戻る。画面60を別の画面に変更する場合(ステップS506,Yes)、コントローラ10は、図15に示す処理手順を終了させる。   In step S506, the controller 10 determines whether to change the screen 60 to another screen. The case where the screen 60 is changed to another screen includes, for example, a case where the user performs an operation for switching the screen and a case where the screen is forcibly switched by interrupt processing. When the screen 60 is not changed to another screen (step S506, No), the controller 10 returns to step S502. When the screen 60 is changed to another screen (step S506, Yes), the controller 10 ends the processing procedure shown in FIG.

操作を検出した場合(ステップS502,Yes)、コントローラ10は、ステップS503に進む。コントローラ10は、ステップS503として、第1画像のうち操作位置に対応する部分の表示倍率を変更し、第2画像として第2表示領域62に表示させる。コントローラ10は、ステップS504として、表示倍率を第2表示領域62に表示させる。コントローラ10は、ステップS505として、操作位置を示す第2オブジェクトを、第1表示領域61及び第2表示領域62に表示させる。そして、コントローラ10は、既に説明したステップS506に進む。   When an operation is detected (step S502, Yes), the controller 10 proceeds to step S503. In step S503, the controller 10 changes the display magnification of the portion corresponding to the operation position in the first image, and displays it in the second display area 62 as the second image. The controller 10 displays the display magnification in the second display area 62 as step S504. The controller 10 displays the 2nd object which shows an operation position on the 1st display area 61 and the 2nd display area 62 as step S505. Then, the controller 10 proceeds to step S506 already described.

図16を参照しながら、スマートフォン1による表示制御の第6の例について説明する。図16は、スマートフォン1による表示制御の第6の例を示す図である。   A sixth example of display control by the smartphone 1 will be described with reference to FIG. FIG. 16 is a diagram illustrating a sixth example of display control by the smartphone 1.

スマートフォン1は、ステップS61では、地図アプリケーション9Bを実行し、地図アプリケーション9Bが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、地図アプリケーション9Bが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によって地図データを取得し、地図データから生成した第1画像を画面60の第1表示領域61に表示する。第2表示領域62には何かしらの情報が表示されていてもよいし、何も表示されていなくてもよい。   In step S61, the smartphone 1 executes the map application 9B and displays the screen 60 provided by the map application 9B on the touch screen display 2 (display 2A). Specifically, the smartphone 1 acquires map data by Internet communication using the communication unit 6 based on the function provided by the map application 9B, and displays a first image generated from the map data on the first display of the screen 60. Display in area 61. Some information may be displayed in the second display area 62, or nothing may be displayed.

ステップS62では、第1表示領域61に表示されている地図データを拡大したい利用者の指F1、F2が、ピンチアウトの操作を行い、その後ピンチアウトの操作を終了している。   In step S62, the fingers F1 and F2 of the user who wants to enlarge the map data displayed in the first display area 61 perform a pinch-out operation, and then finish the pinch-out operation.

スマートフォン1は、第1表示領域61に対するピンチ操作を検出すると、ステップS63として、第1表示領域61に表示している第1画像を第2画像として第2表示領域62に表示する。すなわち、スマートフォン1は、拡大前の第1画像を第2画像として、第2表示領域62に表示する。第2画像は、第1画像と同じ倍率で、操作位置を中心とした第1画像である。スマートフォン1は、ピンチアウトの操作位置を示す指標オブジェクト64を第2表示領域62に表示する。そして、スマートフォン1は、ステップS63として、操作量に応じた倍率で第1画像を拡大して第1表示領域61に表示する。   When the smartphone 1 detects a pinch operation on the first display area 61, the smartphone 1 displays the first image displayed in the first display area 61 as the second image in the second display area 62 in step S63. That is, the smartphone 1 displays the first image before enlargement in the second display area 62 as the second image. The second image is the first image centered on the operation position at the same magnification as the first image. The smartphone 1 displays the index object 64 indicating the pinch-out operation position in the second display area 62. And the smart phone 1 expands a 1st image with the magnification | multiplying_factor according to the operation amount, and displays it on the 1st display area 61 as step S63.

このように、スマートフォン1は、第1表示領域61に対するピンチ操作を検出すると、拡大又は縮小前の第1画像を第2画像として第2表示領域62に表示し、第1表示領域61の第1画像を操作量に応じた倍率で拡大又は縮小する。これにより、スマートフォン1は、利用者が第1表示領域61の第1画像を拡大又は縮小させても、第2表示領域62に表示している拡大又は縮小前の第1画像を利用者に確認させることができる。   As described above, when the smartphone 1 detects a pinch operation on the first display area 61, the smartphone 1 displays the first image before enlargement or reduction as the second image in the second display area 62. The image is enlarged or reduced at a magnification according to the operation amount. Thereby, even if the user enlarges or reduces the first image in the first display area 61, the smartphone 1 confirms with the user the first image before enlargement or reduction displayed in the second display area 62. Can be made.

第1表示領域61に対するピンチアウトの操作が終了した後、利用者は、当該操作位置の近傍に対して2回のピンチアウトの操作を続けて行っている。スマートフォン1は、ピンチアウトを検出するごとに、操作量に応じた倍率となるように、第1表示領域61に表示している第1画像を変更している。この場合、スマートフォン1は、第2表示領域62に表示している第2画像は変更していない。スマートフォン1は、ステップS64として、ピンチアウトを検出した操作位置を示す複数の指標オブジェクト64を第2表示領域62に表示する。複数の指標オブジェクト64は、例えば、異なる表示色で表示したり、操作順番を示すように表示してもよい。これにより、利用者は、第2表示領域62に表示された複数の指標オブジェクト64を参照することで、拡大又は縮小前の第1画像における操作位置の履歴を確認することができる。   After the pinch-out operation on the first display area 61 is completed, the user continues to perform the pinch-out operation twice in the vicinity of the operation position. The smart phone 1 changes the 1st image currently displayed on the 1st display area 61 so that it may become the magnification according to the operation amount, whenever it detects pinch out. In this case, the smartphone 1 has not changed the second image displayed in the second display area 62. The smart phone 1 displays the some indicator object 64 which shows the operation position which detected pinch out on the 2nd display area 62 as step S64. For example, the plurality of index objects 64 may be displayed in different display colors or may be displayed so as to indicate the operation order. Thereby, the user can confirm the history of operation positions in the first image before enlargement or reduction by referring to the plurality of index objects 64 displayed in the second display area 62.

図17を参照しながら、スマートフォン1による表示制御の第6の例の処理手順について説明する。図17は、スマートフォン1による表示制御の第6の例の処理手順を示すフローチャートである。図17に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図17に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。   A processing procedure of a sixth example of display control by the smartphone 1 will be described with reference to FIG. FIG. 17 is a flowchart illustrating a processing procedure of a sixth example of display control by the smartphone 1. The processing procedure shown in FIG. 17 is realized by the controller 10 executing the control program 9A. The processing procedure shown in FIG. 17 is executed when the controller 10 displays the screen 60 on the display 2A.

図17に示すように、スマートフォン1のコントローラ10は、ステップS601として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS602として、第1表示領域61に対するピンチ操作を検出したかを判定する。ピンチ操作を検出していない場合(ステップS602,No)、コントローラ10は、ステップS607に進む。   As illustrated in FIG. 17, the controller 10 of the smartphone 1 displays a first image in the first display area 61 of the screen 60 as step S601. The controller 10 determines whether the pinch operation with respect to the 1st display area 61 was detected as step S602. When the pinch operation is not detected (step S602, No), the controller 10 proceeds to step S607.

コントローラ10は、ステップS607として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS607,No)、コントローラ10は、ステップS602に戻る。画面60を別の画面に変更する場合(ステップS607,Yes)、コントローラ10は、図17に示す処理手順を終了させる。   In step S607, the controller 10 determines whether to change the screen 60 to another screen. The case where the screen 60 is changed to another screen includes, for example, a case where the user performs an operation for switching the screen and a case where the screen is forcibly switched by interrupt processing. When the screen 60 is not changed to another screen (step S607, No), the controller 10 returns to step S602. When the screen 60 is changed to another screen (step S607, Yes), the controller 10 ends the processing procedure shown in FIG.

ピンチ操作を検出した場合(ステップS602,Yes)、コントローラ10は、ステップS603に進む。コントローラ10は、ステップS603として、第2表示領域62に第2画像を表示中であるかを判定する。表示中ではない場合(ステップS603,No)、コントローラ10は、ステップS604に進む。コントローラ10は、ステップS604として、第1表示領域61に表示させている第1画像を第2画像として第2表示領域62に表示させる。表示中である場合(ステップS603,Yes)、検出したピンチ操作は連続したピンチ操作であり、コントローラ10は、ステップS604を行わない。   When the pinch operation is detected (step S602, Yes), the controller 10 proceeds to step S603. In step S603, the controller 10 determines whether the second image is being displayed in the second display area 62. When not displaying (step S603, No), the controller 10 progresses to step S604. The controller 10 displays the 1st image currently displayed on the 1st display area 61 on the 2nd display area 62 as a 2nd image as step S604. When the display is in progress (step S603, Yes), the detected pinch operation is a continuous pinch operation, and the controller 10 does not perform step S604.

コントローラ10は、ステップS605として、ピンチ位置を示す第2オブジェクトを第2表示領域62に表示させる。コントローラ10は、ステップS606として、第1表示領域61に表示させている第1画像の倍率をピンチ操作の操作量に応じて変更し、変更した倍率で第1画像を表示させる。そして、コントローラ10は、既に説明したステップS607に進む。   The controller 10 displays a second object indicating the pinch position in the second display area 62 as step S605. In step S606, the controller 10 changes the magnification of the first image displayed in the first display area 61 according to the operation amount of the pinch operation, and displays the first image at the changed magnification. Then, the controller 10 proceeds to step S607 already described.

図18を参照しながら、スマートフォン1による表示制御の第7の例について説明する。図18は、スマートフォン1による表示制御の第7の例を示す図である。スマートフォン1は、ステップS71では、ブラウザアプリケーション9Cを実行し、ブラウザアプリケーション9Cが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、ブラウザアプリケーション9Cが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によってWEBページを取得し、WEBページを再生した第1画像を第1表示領域61に表示している。   A seventh example of display control by the smartphone 1 will be described with reference to FIG. FIG. 18 is a diagram illustrating a seventh example of display control by the smartphone 1. In step S71, the smartphone 1 executes the browser application 9C and displays the screen 60 provided by the browser application 9C on the touch screen display 2 (display 2A). Specifically, the smartphone 1 acquires a WEB page by Internet communication using the communication unit 6 based on the function provided by the browser application 9 </ b> C, and displays a first image obtained by reproducing the WEB page in the first display area 61. it's shown.

スマートフォン1は、第1画像のうち、第1表示領域61に表示している部分に対応する領域を第2画像として第2表示領域62に表示している。第1表示領域61に表示している部分に対応する領域は、例えば、第1画像のうち、第1表示領域61に表示されている部分の一部、全体、又はそれを含むより広い領域である。第2画像の初期の表示倍率は、予め設定された倍率である。第2画像の表示倍率は、利用者の操作に応じて変更可能であってもよい。   The smartphone 1 displays the area corresponding to the portion displayed in the first display area 61 in the first display area 62 as the second image in the first image. The region corresponding to the portion displayed in the first display region 61 is, for example, a part of the portion displayed in the first display region 61 in the first image, the whole, or a wider region including the same. is there. The initial display magnification of the second image is a preset magnification. The display magnification of the second image may be changeable according to a user operation.

さらに、スマートフォン1は、WEBページを再生した第1画像のうち、第1表示領域61に表示されているのがどの部分であるかを示すインジケータ61aを第1表示領域61に表示している。   Furthermore, the smartphone 1 displays, in the first display area 61, an indicator 61 a that indicates which part of the first image reproduced from the WEB page is displayed in the first display area 61.

ステップS72では、利用者の指F1が、第1表示領域61に対してスクロール操作を行っている。具体的には、利用者は、指F1を用いて、第1表示領域61で下フリックを行っている。   In step S <b> 72, the user's finger F <b> 1 performs a scroll operation on the first display area 61. Specifically, the user performs a lower flick in the first display area 61 using the finger F1.

スマートフォン1は、第1表示領域61に対するスクロール操作を検出すると、ステップS73として、第1表示領域61を、スクロール操作に応じた第1速度で操作方向にスクロールさせる。さらに、スマートフォン1は、第1表示領域61をスクロールさせている第1速度とは異なる第2速度で、第2表示領域62をスクロールさせる。   When detecting the scroll operation on the first display area 61, the smartphone 1 scrolls the first display area 61 in the operation direction at the first speed corresponding to the scroll operation as Step S73. Furthermore, the smartphone 1 scrolls the second display area 62 at a second speed different from the first speed at which the first display area 61 is scrolled.

第1表示領域61に表示している第1画像を拡大した第2画像を第2表示領域62に表示している場合に、第2表示領域62を第1表示領域61と同じ第1速度でスクロールさせると、第2表示領域62は視認が困難な速度でスクロールされることになる。このため、スマートフォン1は、第2速度を、第1速度よりも遅い速度に設定する。これにより、スマートフォン1は、第1表示領域61に連動して第2表示領域62をスクロールしても、第2表示領域62の表示内容を利用者に視認させることができる。第2速度は、スクロール操作の速度にかかわらず、一定の速度であってもよい。第2速度は、利用者がスクロール中の情報の内容を認識できる程度の速度であることが好ましい。   When a second image obtained by enlarging the first image displayed in the first display area 61 is displayed in the second display area 62, the second display area 62 is moved at the same first speed as the first display area 61. When scrolling, the second display area 62 is scrolled at a speed that is difficult to visually recognize. For this reason, the smartphone 1 sets the second speed to a speed slower than the first speed. Thereby, even if the smartphone 1 scrolls the second display area 62 in conjunction with the first display area 61, the user can visually recognize the display content of the second display area 62. The second speed may be a constant speed regardless of the scroll operation speed. The second speed is preferably a speed at which the user can recognize the content of the information being scrolled.

さらに、スマートフォン1は、第1表示領域61又は第2表示領域62においてスクロール停止操作を検出すると、スクロール停止操作を検出した表示領域のスクロールを停止させる。そして、スマートフォン1は、他方の表示領域に表示される部分を、スクロール停止操作を検出した表示領域に表示されている部分と対応するように変更する。スクロール停止操作は、例えば、タッチ、又はロングタッチである。   Furthermore, when the smartphone 1 detects the scroll stop operation in the first display area 61 or the second display area 62, the smartphone 1 stops scrolling of the display area in which the scroll stop operation is detected. And the smart phone 1 changes the part displayed on the other display area so that it may correspond with the part currently displayed on the display area which detected scroll stop operation. The scroll stop operation is, for example, touch or long touch.

例えば、第1表示領域61では第1画像の中央に近い部分がスクロールされており、第2表示領域62ではまだ第1画像の先頭に近い部分がスクロールされているものとする。このとき、第1表示領域61でスクロール停止操作を検出すると、スマートフォン1は、第1表示領域61には、第1画像の中央に近い部分を表示させ、さらに、第2表示領域62にも、第1画像の中央に近い部分を第2画像として表示させる。一方、第2表示領域62でスクロール停止操作を検出すると、スマートフォン1は、第2表示領域62には、第1画像の先頭に近い部分を第2画像として表示させ、さらに、第1表示領域61にも、第1画像の先頭に近い部分を表示させる。   For example, it is assumed that a portion near the center of the first image is scrolled in the first display area 61 and a portion near the head of the first image is still scrolled in the second display area 62. At this time, when a scroll stop operation is detected in the first display area 61, the smartphone 1 displays a portion near the center of the first image in the first display area 61, and also in the second display area 62, A portion close to the center of the first image is displayed as the second image. On the other hand, when the scroll stop operation is detected in the second display area 62, the smartphone 1 causes the second display area 62 to display a portion close to the top of the first image as the second image, and further to the first display area 61. In addition, a portion close to the top of the first image is displayed.

このように、スマートフォン1は、第1表示領域61に対するスクロール操作を検出すると、操作に応じた第1速度で第1表示領域61をスクロールし、第1速度よりも遅い第2速度で第2表示領域62をスクロールさせる。これにより、利用者は、第1表示領域61のスクロール操作が意図せずに高速になってしまった場合でも、低速でスクロールしている第2表示領域62で表示内容を確認しながら、所望の位置でスクロールを停止させることができる。   As described above, when the smartphone 1 detects the scroll operation on the first display area 61, the smartphone 1 scrolls the first display area 61 at the first speed corresponding to the operation, and performs the second display at the second speed slower than the first speed. The area 62 is scrolled. Thereby, even when the scroll operation of the first display area 61 is unintentionally performed at a high speed, the user can confirm the display contents in the second display area 62 that is scrolling at a low speed and Scrolling can be stopped at the position.

ステップS74では、利用者の指F1が、スクロール速度の遅い第2表示領域62に対してスクロール停止操作を行っている。ステップS74に示す例では、利用者の指F1が、第2表示領域62にスクロール表示されている第2画像の「きちつ」に対応した領域でスクロール停止操作を行っている。スマートフォン1は、ステップS75として、第2表示領域62のスクロールを停止させ、さらに、第1表示領域61に表示される第1画像の部分を「きちつ」に対応した領域が含まれる部分に変更して、第2表示領域62のスクロールを停止させている。   In step S74, the user's finger F1 performs a scroll stop operation on the second display area 62 having a low scroll speed. In the example shown in step S <b> 74, the user's finger F <b> 1 performs a scroll stop operation in an area corresponding to “Kits” in the second image scroll-displayed in the second display area 62. In step S75, the smartphone 1 stops scrolling the second display area 62, and further changes the part of the first image displayed in the first display area 61 to a part that includes an area corresponding to “Kittsu”. Thus, the scrolling of the second display area 62 is stopped.

図19を参照しながら、スマートフォン1による表示制御の第7の例の処理手順について説明する。図19は、スマートフォン1による表示制御の第7の例の処理手順を示すフローチャートである。図19に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図19に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。   A processing procedure of a seventh example of display control by the smartphone 1 will be described with reference to FIG. FIG. 19 is a flowchart illustrating a processing procedure of a seventh example of display control by the smartphone 1. The processing procedure shown in FIG. 19 is realized by the controller 10 executing the control program 9A. The processing procedure shown in FIG. 19 is executed when the controller 10 displays the screen 60 on the display 2A.

図19に示すように、スマートフォン1のコントローラ10は、ステップS701として、画面60の第1表示領域61に第1画像を表示させる。さらに、コントローラ10は、第1画像のうち、第1表示領域61に表示している部分に対応する領域を第2画像として第2表示領域62に表示する。コントローラ10は、ステップS702として、第1表示領域61に対するスクロール操作を検出したかを判定する。スクロール操作を検出した場合(ステップS702,Yes)、コントローラ10は、ステップS703に進む。コントローラ10は、ステップS703として、スクロール操作に応じた第1速度で表示領域61をスクロールさせる。コントローラ10は、ステップS704として、第2速度で表示領域62をスクロールさせる。スクロール操作を検出していない場合(ステップS702,No)、ステップS703及び704は実行されない。   As illustrated in FIG. 19, the controller 10 of the smartphone 1 displays a first image in the first display area 61 of the screen 60 as step S701. Furthermore, the controller 10 displays, in the second display area 62, a second image corresponding to a portion displayed in the first display area 61 in the first image. The controller 10 determines whether scroll operation with respect to the 1st display area 61 was detected as step S702. When the scroll operation is detected (step S702, Yes), the controller 10 proceeds to step S703. In step S703, the controller 10 scrolls the display area 61 at a first speed corresponding to the scroll operation. In step S704, the controller 10 scrolls the display area 62 at the second speed. When the scroll operation is not detected (No at Step S702), Steps S703 and 704 are not executed.

コントローラ10は、ステップS705として、スクロール操作以外の操作を検出したかを判定する。スクロール操作以外の操作を検出した場合(ステップS705,Yes)、コントローラ10は、ステップS706に進む。コントローラ10は、ステップS706として、操作に応じた処理を実行する。スクロール操作以外の操作を検出していない場合(ステップS705,No)、ステップS706は実行されない。   In step S705, the controller 10 determines whether an operation other than the scroll operation has been detected. When an operation other than the scroll operation is detected (step S705, Yes), the controller 10 proceeds to step S706. Controller 10 performs processing according to operation as Step S706. When an operation other than the scroll operation is not detected (step S705, No), step S706 is not executed.

その後、コントローラ10は、ステップS707として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS707,No)、コントローラ10は、ステップS702に戻る。画面60を別の画面に変更する場合(ステップS708,Yes)、コントローラ10は、図19に示す処理手順を終了させる。   Thereafter, the controller 10 determines whether to change the screen 60 to another screen in step S707. The case where the screen 60 is changed to another screen includes, for example, a case where the user performs an operation for switching the screen and a case where the screen is forcibly switched by interrupt processing. When the screen 60 is not changed to another screen (step S707, No), the controller 10 returns to step S702. When the screen 60 is changed to another screen (step S708, Yes), the controller 10 ends the processing procedure shown in FIG.

本出願の開示する実施形態は、発明の要旨及び範囲を逸脱しない範囲で変更することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。   Embodiment which this application discloses can be changed in the range which does not deviate from the summary and range of invention. Furthermore, the embodiment disclosed in the present application and its modifications can be combined as appropriate. For example, the above embodiment may be modified as follows.

例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。   For example, each program shown in FIG. 5 may be divided into a plurality of modules, or may be combined with other programs.

上記の実施形態では、タッチスクリーンを備える電子機器の例として、スマートフォンについて説明したが、添付の請求項に係る電子機器は、スマートフォンに限定されない。添付の請求項に係る電子機器は、スマートフォン以外の電子機器であってもよい。電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。添付の請求項に係る電子機器は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、自動預入支払機(ATM)、及びテレビ受像器を含むが、これらに限定されない。   In the above embodiment, a smartphone has been described as an example of an electronic device including a touch screen. However, the electronic device according to the appended claims is not limited to a smartphone. The electronic device according to the appended claims may be an electronic device other than a smartphone. Examples of electronic devices include, but are not limited to, mobile phones, tablets, portable personal computers, digital cameras, media players, electronic book readers, navigators, and game machines. The electronic device according to the appended claims may be a stationary electronic device. The stationary electronic device includes, for example, a desktop personal computer, an automatic depositing and paying machine (ATM), and a television receiver, but is not limited thereto.

上記の実施形態では、スマートフォン1は、第2表示領域62を、第1表示領域61の右側又は下側に配置する場合について説明したが、第2表示領域62の配置はこれに限定されない。スマートフォン1は、例えば、第2表示領域62を、第1表示領域61の上側、左側、操作位置の近傍等に配置してもよい。   In the above embodiment, the smartphone 1 has been described with respect to the case where the second display area 62 is arranged on the right side or the lower side of the first display area 61, but the arrangement of the second display area 62 is not limited to this. For example, the smartphone 1 may arrange the second display area 62 on the upper side, the left side of the first display area 61, in the vicinity of the operation position, and the like.

上記の実施形態では、スマートフォン1は、第2表示領域62が画面60における第1表示領域61以外の表示領域である場合について説明したが、これに限定されない。例えば、スマートフォン1は、第1表示領域61を画面60の表示領域全体とし、第2表示領域62を画面60の一部に重ねて表示する他の画面となるように構成されてもよい。   In the above embodiment, the smartphone 1 has been described with respect to the case where the second display area 62 is a display area other than the first display area 61 on the screen 60, but is not limited thereto. For example, the smartphone 1 may be configured so that the first display area 61 is the entire display area of the screen 60 and the second display area 62 is another screen that is displayed on a part of the screen 60.

画面60の第1表示領域61に初めて第1画像を表示させる際に、第2表示領域62に何を表示させるか、又は何も表示させないかは、適宜変更してもよい。例えば、第1表示領域61に初めて第1画像を表示させる際には、第1表示領域61及び第2表示領域62を1つの表示領域として扱って、これらを跨いで第1画像を表示し、第1表示領域61での所定の操作を検出した場合に、操作を検出した位置に関する情報を第2表示領域62にしてもよい。あるいは、第1表示領域61に初めて第1画像を表示させる際には、第2表示領域62にはなにも表示せず、第1表示領域61での所定の操作を検出した場合に、操作を検出した位置に関する情報を第2表示領域62にしてもよい。   When the first image is displayed for the first time in the first display area 61 of the screen 60, what is displayed in the second display area 62 or whether nothing is displayed may be changed as appropriate. For example, when the first image is displayed for the first time in the first display area 61, the first display area 61 and the second display area 62 are treated as one display area, and the first image is displayed across these areas. When a predetermined operation in the first display area 61 is detected, information related to the position where the operation is detected may be the second display area 62. Alternatively, when the first image is displayed for the first time in the first display area 61, nothing is displayed in the second display area 62, and the operation is performed when a predetermined operation in the first display area 61 is detected. The information regarding the position where the position is detected may be the second display area 62.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be configured to embody such a configuration.

1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B 地図アプリケーション
9C ブラウザアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング
DESCRIPTION OF SYMBOLS 1 Smart phone 2 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Control program 9B Map application 9C Browser application 9Z Setting data 10 Controller 11 Speaker 12, 13 Camera 14 Connector 15 Acceleration sensor 16 Direction sensor 17 Gyroscope 20 Housing

Claims (13)

第1表示領域と第2表示領域とを有する画面を表示するタッチスクリーンディスプレイと、
前記第1表示領域に第1画像を表示させるとともに、当該第1表示領域において操作を検出した位置の近傍を拡大又は縮小した情報を前記第2表示領域に表示させるコントローラと
を備え
前記コントローラは、前記第1表示領域に対するピンチ操作を検出した場合に、検出した前記ピンチ操作の操作量が予め設定された閾値に到達していない場合、前記第1表示領域に表示させている前記第1画像の表示サイズを維持したままで、前記情報を拡大又は縮小させ、検出した前記操作量が前記閾値に到達した場合、前記第1表示領域に表示させている第1画像の倍率を、前記操作量に応じて変更するように制御する電子機器。
A touch screen display for displaying a screen having a first display area and a second display area;
A controller that displays a first image in the first display area, and displays information obtained by enlarging or reducing the vicinity of a position where an operation is detected in the first display area in the second display area ,
When the controller detects a pinch operation on the first display area and the detected operation amount of the pinch operation has not reached a preset threshold, the controller displays the first display area on the first display area. While maintaining the display size of the first image, the information is enlarged or reduced, and when the detected operation amount reaches the threshold, the magnification of the first image displayed in the first display area is set as follows: electronic device that controls so as to change in response to the operation amount.
前記第1画像は、他の画像を表示させるための第1オブジェクトを有し、
前記コントローラは、前記操作を検出した前記位置の近傍に前記第1オブジェクトが存在する場合、前記第1オブジェクトに関する情報を前記第2表示領域に表示させる請求項に記載の電子機器。
The first image has a first object for displaying another image,
2. The electronic device according to claim 1 , wherein the controller displays information on the first object in the second display area when the first object is present in the vicinity of the position where the operation is detected.
前記コントローラは、前記操作を検出した位置を示す第2オブジェクトをさらに前記第2表示領域に表示させる請求項に記載の電子機器。 The electronic device according to claim 2 , wherein the controller further displays a second object indicating a position where the operation is detected in the second display area. 前記コントローラは、前記操作を検出した位置の近傍のオブジェクトのうち前記第1オブジェクトのみを前記第2表示領域に表示させる請求項に記載の電子機器。 The electronic device according to claim 2 , wherein the controller causes the second display area to display only the first object among objects near the position where the operation is detected. 前記コントローラは、前記操作を検出した位置の近傍に複数の前記第1オブジェクトが存在する場合、複数の前記第1オブジェクトの一覧を前記第2表示領域に表示させる請求項に記載の電子機器。 The electronic device according to claim 3 , wherein the controller displays a list of the plurality of first objects in the second display area when there are a plurality of the first objects near a position where the operation is detected. 前記操作は、前記第1表示領域の上に物体を近づける操作であり、
前記コントローラは、近づけた前記物体と前記タッチスクリーンディスプレイとの距離に応じた倍率で前記情報を前記第2表示領域に表示させる請求項に記載の電子機器。
The operation is an operation of bringing an object closer to the first display area,
The electronic device according to claim 1 , wherein the controller displays the information on the second display area at a magnification according to a distance between the object that is brought close to the touch screen display.
前記コントローラは、前記タッチスクリーンディスプレイの面方向に沿った方向への前記近づけた物体の移動を検出した場合に、前記情報の表示を維持させる請求項に記載の電子機器。 The electronic device according to claim 6 , wherein the controller maintains the display of the information when detecting the movement of the approached object in a direction along a surface direction of the touch screen display. 前記コントローラは、倍率を、前記情報とともに前記第2表示領域に表示させる請求項に記載の電子機器。 The electronic device according to claim 1 , wherein the controller displays a magnification in the second display area together with the information. 前記コントローラは、前記第1表示領域に対するピンチ操作を検出した場合に、検出した当該ピンチ操作の操作位置を示す第2オブジェクトを、前記情報とともに前記第2表示領域に表示させ、前記第1表示領域に表示している前記第1画像を前記ピンチ操作の操作量に応じて拡大又は縮小させるように制御する請求項に記載の電子機器。 When the controller detects a pinch operation on the first display area, the controller displays a second object indicating the detected operation position of the pinch operation on the second display area together with the information, and the first display area The electronic apparatus according to claim 1 , wherein the first image displayed on the screen is controlled to be enlarged or reduced according to an operation amount of the pinch operation. 前記コントローラは、前記ピンチ操作を複数回検出した場合に、それぞれのピンチ操作を検出した位置を前記第2表示領域に表示させる請求項に記載の電子機器。 The electronic device according to claim 9 , wherein the controller displays the position where each pinch operation is detected in the second display area when the pinch operation is detected a plurality of times. 前記第1表示領域および前記第2表示領域は、スクロール可能な表示領域であり、
前記コントローラは、前記情報を前記第2表示領域に表示させている場合に、前記第1表示領域に対するスクロール操作を検出すると、検出した前記スクロール操作に応じた第1速度で前記第1表示領域をスクロールさせ、前記第1速度とは異なる第2速度で前記第2表示領域をスクロールさせる請求項1に記載の電子機器。
The first display area and the second display area are scrollable display areas,
When the controller detects the scroll operation for the first display area when the information is displayed in the second display area, the controller displays the first display area at a first speed corresponding to the detected scroll operation. is scrolled, the electronic device according to claim 1 for scrolling the second display area different from the second speed to the first speed.
タッチスクリーンディスプレイを備えた電子機器の制御方法であって、
第1表示領域と第2表示領域とを有する画面を前記タッチスクリーンディスプレイに表示させるステップと、
前記第1表示領域に第1画像を表示させるステップと、
前記第1表示領域において操作を検出した位置の近傍を拡大又は縮小した情報を前記第2表示領域に表示させるステップと
前記第1表示領域に対するピンチ操作を検出するステップと、
検出した前記ピンチ操作の操作量が予め設定された閾値に到達していない場合、前記第1表示領域に表示させている前記第1画像の表示サイズを維持したままで、前記情報を拡大又は縮小させ、検出した前記操作量が前記閾値に到達した場合、前記第1表示領域に表示させている第1画像の倍率を、前記操作量に応じて変更するように制御するステップと
を含む制御方法。
A method for controlling an electronic device having a touch screen display,
Displaying a screen having a first display area and a second display area on the touch screen display;
Displaying a first image in the first display area;
Displaying in the second display area information obtained by enlarging or reducing the vicinity of the position where the operation is detected in the first display area ;
Detecting a pinch operation on the first display area;
When the detected operation amount of the pinch operation does not reach a preset threshold value, the information is enlarged or reduced while maintaining the display size of the first image displayed in the first display area. And, when the detected operation amount reaches the threshold value, controlling to change the magnification of the first image displayed in the first display area according to the operation amount. .
タッチスクリーンディスプレイを備えた電子機器に、
第1表示領域と第2表示領域とを有する画面を前記タッチスクリーンディスプレイに表示させるステップと、
前記第1表示領域に第1画像を表示させるステップと、
前記第1表示領域において操作を検出した位置の近傍を拡大又は縮小した情報を前記第2表示領域に表示させるステップと
前記第1表示領域に対するピンチ操作を検出するステップと、
検出した前記ピンチ操作の操作量が予め設定された閾値に到達していない場合、前記第1表示領域に表示させている前記第1画像の表示サイズを維持したままで、前記情報を拡大又は縮小させ、検出した前記操作量が前記閾値に到達した場合、前記第1表示領域に表示させている第1画像の倍率を、前記操作量に応じて変更するように制御するステップと
を実行させる制御プログラム。
For electronic devices with touch screen displays,
Displaying a screen having a first display area and a second display area on the touch screen display;
Displaying a first image in the first display area;
Displaying in the second display area information obtained by enlarging or reducing the vicinity of the position where the operation is detected in the first display area ;
Detecting a pinch operation on the first display area;
When the detected operation amount of the pinch operation does not reach a preset threshold value, the information is enlarged or reduced while maintaining the display size of the first image displayed in the first display area. And, when the detected operation amount reaches the threshold value, a step of executing a step of controlling the magnification of the first image displayed in the first display area to be changed according to the operation amount. program.
JP2013246511A 2013-11-28 2013-11-28 Electronic device, control method, and control program Active JP6096100B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013246511A JP6096100B2 (en) 2013-11-28 2013-11-28 Electronic device, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013246511A JP6096100B2 (en) 2013-11-28 2013-11-28 Electronic device, control method, and control program

Publications (2)

Publication Number Publication Date
JP2015106181A JP2015106181A (en) 2015-06-08
JP6096100B2 true JP6096100B2 (en) 2017-03-15

Family

ID=53436278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013246511A Active JP6096100B2 (en) 2013-11-28 2013-11-28 Electronic device, control method, and control program

Country Status (1)

Country Link
JP (1) JP6096100B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019524213A (en) * 2016-06-29 2019-09-05 ジュン,サンムン Touch operation method in mobile real-time simulation game
JP2018055623A (en) * 2016-09-30 2018-04-05 ブラザー工業株式会社 Display input device and storage medium
JP6780484B2 (en) * 2016-12-13 2020-11-04 カシオ計算機株式会社 Information processing equipment and programs
JP6780483B2 (en) * 2016-12-13 2020-11-04 カシオ計算機株式会社 Information processing equipment and programs

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3560500B2 (en) * 1999-06-04 2004-09-02 富士通テン株式会社 Navigation device
JP4481289B2 (en) * 2006-11-14 2010-06-16 株式会社コナミデジタルエンタテインメント Item selection device, item selection method, and program
JP5001182B2 (en) * 2008-01-10 2012-08-15 パナソニック株式会社 Display control apparatus, electronic device, display control method, and program
JP5554972B2 (en) * 2009-11-30 2014-07-23 株式会社 ミックウェア Map information processing apparatus, map information processing method, and program
JP2011253468A (en) * 2010-06-03 2011-12-15 Aisin Aw Co Ltd Display device, display method and display program
JP2012094008A (en) * 2010-10-27 2012-05-17 Kyocera Corp Portable electronic equipment
JP5828800B2 (en) * 2012-04-23 2015-12-09 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America Display device, display control method, and program
JP2013050972A (en) * 2012-10-22 2013-03-14 Seiko Epson Corp Portable information apparatus, electronic book and program

Also Published As

Publication number Publication date
JP2015106181A (en) 2015-06-08

Similar Documents

Publication Publication Date Title
JP6159078B2 (en) Apparatus, method, and program
JP6110654B2 (en) Apparatus, method, and program
JP5850736B2 (en) Apparatus, method, and program
JP5805588B2 (en) Electronic device, control method, and control program
JP5762944B2 (en) Apparatus, method, and program
JP5775445B2 (en) Apparatus, method, and program
JP5805685B2 (en) Electronic device, control method, and control program
JP2013084233A (en) Device, method, and program
JP2013131185A (en) Device, method and program
JP2013047919A (en) Device, method, and program
JP6058790B2 (en) Apparatus, method, and program
JP2013092989A (en) Device, method, and program
JP2013131193A (en) Device, method, and program
JP5858896B2 (en) Electronic device, control method, and control program
JP2014071724A (en) Electronic apparatus, control method, and control program
JP5801673B2 (en) Electronic apparatus, method, and program
JP6096100B2 (en) Electronic device, control method, and control program
JP2013084237A (en) Device, method, and program
JP5762885B2 (en) Apparatus, method, and program
JP5775432B2 (en) Apparatus, method, and program
JP2013065290A (en) Device, method, and program
JP6080355B2 (en) Apparatus, method, and program
JP5959372B2 (en) Apparatus, method, and program
JP2013101547A (en) Device, method, and program
JP5740366B2 (en) Apparatus, method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170215

R150 Certificate of patent or registration of utility model

Ref document number: 6096100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150