JP6096100B2 - Electronic device, control method, and control program - Google Patents
Electronic device, control method, and control program Download PDFInfo
- Publication number
- JP6096100B2 JP6096100B2 JP2013246511A JP2013246511A JP6096100B2 JP 6096100 B2 JP6096100 B2 JP 6096100B2 JP 2013246511 A JP2013246511 A JP 2013246511A JP 2013246511 A JP2013246511 A JP 2013246511A JP 6096100 B2 JP6096100 B2 JP 6096100B2
- Authority
- JP
- Japan
- Prior art keywords
- display area
- display
- smartphone
- detected
- controller
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Description
本出願は、電子機器、制御方法、及び制御プログラムに関する。特に、本出願は、タッチスクリーンを有する電子機器、その電子機器を制御する制御方法、及びその電子機器を制御するための制御プログラムに関する。 The present application relates to an electronic device, a control method, and a control program. In particular, the present application relates to an electronic device having a touch screen, a control method for controlling the electronic device, and a control program for controlling the electronic device.
タッチスクリーンディスプレイを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、スマートフォン及びタブレットを含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
Touch screen devices with a touch screen display are known. Touch screen devices include, but are not limited to, for example, smartphones and tablets. The touch screen device detects a finger, pen, or stylus pen gesture via the touch screen. The touch screen device operates according to the detected gesture. An example of the operation according to the detected gesture is described in
タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。 The basic operation of the touch screen device is realized by an OS (Operating System) installed in the device. Examples of the OS installed in the touch screen device include, but are not limited to, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, and Windows (registered trademark) Phone.
タッチスクリーンデバイスは、利用者による直感的な画面操作を可能にするが、タッチスクリーンデバイスにおける画面操作には改善の余地がある。このような理由から、画面操作に関して利用者の利便性を向上させることができる電子機器、制御方法、及び制御プログラムに対するニーズがある。 The touch screen device enables an intuitive screen operation by the user, but there is room for improvement in the screen operation in the touch screen device. For these reasons, there is a need for an electronic device, a control method, and a control program that can improve user convenience for screen operations.
1つの態様に係る電子機器は、第1表示領域と第2表示領域とを有する画面を表示するタッチスクリーンディスプレイと、前記第1表示領域に第1画像を表示させるとともに、当該第1表示領域において操作を検出した位置に関する情報を前記第2表示領域に表示させるコントローラとを備える。 An electronic apparatus according to an aspect displays a touch screen display that displays a screen having a first display area and a second display area, and displays a first image in the first display area. A controller for displaying information on a position where the operation is detected in the second display area.
1つの態様に係る制御方法は、タッチスクリーンディスプレイを備えた電子機器の制御方法であって、第1表示領域と第2表示領域とを有する画面を前記タッチスクリーンディスプレイに表示させるステップと、前記第1表示領域に第1画像を表示させるステップと、前記第1表示領域において操作を検出した位置に関する情報を前記第2表示領域に表示させるステップとを含む。 A control method according to one aspect is a method for controlling an electronic device including a touch screen display, the step of displaying a screen having a first display area and a second display area on the touch screen display, Displaying a first image in one display area; and displaying information on a position where an operation is detected in the first display area in the second display area.
1つの態様に係る制御プログラムは、タッチスクリーンディスプレイを備えた電子機器に、第1表示領域と第2表示領域とを有する画面を前記タッチスクリーンディスプレイに表示させるステップと、前記第1表示領域に第1画像を表示させるステップと、前記第1表示領域において操作を検出した位置に関する情報を前記第2表示領域に表示させるステップとを実行させる。 A control program according to an aspect includes a step of causing an electronic device including a touch screen display to display a screen having a first display area and a second display area on the touch screen display; and a first program in the first display area. A step of displaying one image, and a step of displaying information on a position where an operation is detected in the first display area in the second display area.
本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、タッチスクリーンディスプレイを備える電子機器の例として、スマートフォンについて説明する。 Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of an electronic device provided with a touch screen display.
(実施形態)
図1及び2を参照しながら、実施形態に係るスマートフォン1の全体的な構成について説明する。図1及び2に示すように、スマートフォン1は、ハウジング20を有する。ハウジング20は、フロントフェイス1Aと、バックフェイス1Bと、サイドフェイス1C1〜1C4とを有する。フロントフェイス1Aは、ハウジング20の正面である。バックフェイス1Bは、ハウジング20の背面である。サイドフェイス1C1〜1C4は、フロントフェイス1Aとバックフェイス1Bとを接続する側面である。以下では、サイドフェイス1C1〜1C4を、どの面であるかを特定することなく、サイドフェイス1Cと総称することがある。
(Embodiment)
The overall configuration of the
スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3A〜3Cと、照度センサ4と、近接センサ5と、レシーバ7と、マイク8と、カメラ12とをフロントフェイス1Aに有する。スマートフォン1は、スピーカ11と、カメラ13とをバックフェイス1Bに有する。スマートフォン1は、ボタン3D〜3Fと、コネクタ14とをサイドフェイス1Cに有する。以下では、ボタン3A〜3Fを、どのボタンであるかを特定することなく、ボタン3と総称することがある。
The
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。図1の例では、ディスプレイ2A及びタッチスクリーン2Bはそれぞれ略長方形状であるが、ディスプレイ2A及びタッチスクリーン2Bの形状はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、それぞれが正方形又は円形等のどのような形状もとりうる。図1の例では、ディスプレイ2A及びタッチスクリーン2Bは重ねて配置されているが、ディスプレイ2A及びタッチスクリーン2Bの配置はこれに限定されない。ディスプレイ2A及びタッチスクリーン2Bは、例えば、並べて配置されてもよいし、離して配置されてもよい。図1の例では、ディスプレイ2Aの長辺はタッチスクリーン2Bの長辺に沿っており、ディスプレイ2Aの短辺はタッチスクリーン2Bの短辺に沿っているが、ディスプレイ2A及びタッチスクリーン2Bの重ね方はこれに限定されない。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。
The
ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。
The
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等がタッチスクリーン2Bに接触した位置を検出することができる。以下の説明では、タッチスクリーン2Bに対して接触する指、ペン、又はスタイラスペン等を、「接触オブジェクト」又は「接触物」と呼ぶことがある。
The
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
The detection method of the
スマートフォン1は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいてジェスチャの種別を判別する。ジェスチャは、タッチスクリーン2Bに対して行われる操作である。スマートフォン1によって判別されるジェスチャは、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトを含むがこれらに限定されない。
The
「タッチ」は、タッチスクリーン2Bに指が触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が接触するジェスチャをタッチとして判別する。「ロングタッチ」は、タッチスクリーン2Bに指が一定時間より長く触れるジェスチャである。スマートフォン1は、タッチスクリーン2Bに指が一定時間より長く接触するジェスチャをロングタッチとして判別する。
“Touch” is a gesture in which a finger touches the
「リリース」は、指がタッチスクリーン2Bから離れるジェスチャである。スマートフォン1は、指がタッチスクリーン2Bから離れるジェスチャをリリースとして判別する。「スワイプ」は、指がタッチスクリーン2Bに接触したままで移動するジェスチャである。スマートフォン1は、指がタッチスクリーン2Bに接触したままで移動するジェスチャをスワイプとして判別する。
“Release” is a gesture in which a finger leaves the
「タップ」は、タッチに続いてリリースをするジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャをタップとして判別する。「ダブルタップ」は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャである。スマートフォン1は、タッチに続いてリリースをするジェスチャが2回連続するジェスチャをダブルタップとして判別する。
A “tap” is a gesture for releasing following a touch. The
「ロングタップ」は、ロングタッチに続いてリリースをするジェスチャである。スマートフォン1は、ロングタッチに続いてリリースをするジェスチャをロングタップとして判別する。「ドラッグ」は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャである。スマートフォン1は、移動可能なオブジェクトが表示されている領域を始点としてスワイプをするジェスチャをドラッグとして判別する。
“Long tap” is a gesture for releasing following a long touch. The
「フリック」は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャである。すなわち、「フリック」は、タッチに続いて指が移動しながらリリースが行われるジェスチャである。スマートフォン1は、指が、タッチスクリーン2Bに触れた後移動しながらタッチスクリーン2Bから離れるジェスチャをフリックとして判別する。フリックは、指が一方方向へ移動しながら行われることが多い。フリックは、指が画面の上方向へ移動する「上フリック」、指が画面の下方向へ移動する「下フリック」、指が画面の右方向へ移動する「右フリック」、指が画面の左方向へ移動する「左フリック」等を含む。フリックにおける指の移動は、スワイプにおける指の移動よりも素早いことが多い。
“Flick” is a gesture in which a finger leaves the
「ピンチイン」は、複数の指が互いに近づく方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が短くなるジェスチャをピンチインとして判別する。「ピンチアウト」は、複数の指が互いに遠ざかる方向にスワイプするジェスチャである。スマートフォン1は、タッチスクリーン2Bにより検出されるある指の位置と他の指の位置との間の距離が長くなるジェスチャをピンチアウトとして判別する。
“Pinch in” is a gesture in which a plurality of fingers are swiped in a direction approaching each other. The
以下の説明では、1本の指により行われるジェスチャを「シングルタッチジェスチャ」と呼び、2本以上の指により行われるジェスチャを「マルチタッチジェスチャ」と呼ぶことがある。マルチタッチジェスチャは、例えば、ピンチインおよびピンチアウトを含む。タップ、フリックおよびスワイプ等は、1本の指で行われればシングルタッチジェスチャであり、2本以上の指で行われればマルチタッチジェスチャである。 In the following description, a gesture performed with one finger may be referred to as a “single touch gesture”, and a gesture performed with two or more fingers may be referred to as a “multi-touch gesture”. Multi-touch gestures include, for example, pinch-in and pinch-out. Taps, flicks, swipes, and the like are single-touch gestures when performed with one finger, and multi-touch gestures when performed with two or more fingers.
スマートフォン1は、タッチスクリーン2Bを介して判別するこれらのジェスチャに従って動作を行う。このため、利用者にとって直感的で使いやすい操作性が実現される。判別されるジェスチャに従ってスマートフォン1が行う動作は、ディスプレイ2Aに表示されている画面に応じて異なることがある。以下の説明では、説明を簡単にするために、「タッチスクリーン2Bが接触を検出し、検出された接触に基づいてジェスチャの種別をスマートフォン1がXと判別すること」を、「スマートフォンがXを検出する」、又は「コントローラがXを検出する」と記載することがある。
The
図3は、スマートフォン1のブロック図である。スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12及び13と、コネクタ14と、加速度センサ15と、方位センサ16と、ジャイロスコープ17とを有する。
FIG. 3 is a block diagram of the
タッチスクリーンディスプレイ2は、上述したように、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2Aは、文字、画像、記号、又は図形等を表示する。タッチスクリーン2Bは、接触を検出する。コントローラ10は、スマートフォン1に対するジェスチャを検出する。具体的には、コントローラ10は、タッチスクリーン2Bと協働することによって、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する操作(ジェスチャ)を検出する。
As described above, the
ボタン3は、利用者によって操作される。ボタン3は、ボタン3A〜ボタン3Fを有する。コントローラ10はボタン3と協働することによってボタン3に対する操作を検出する。ボタン3に対する操作は、例えば、クリック、ダブルクリック、トリプルクリック、プッシュ、及びマルチプッシュを含むが、これらに限定されない。
The button 3 is operated by the user. The button 3 includes
ボタン3A〜3Cは、例えば、ホームボタン、バックボタン又はメニューボタンである。ボタン3Dは、例えば、スマートフォン1のパワーオン/オフボタンである。ボタン3Dは、スリープ/スリープ解除ボタンを兼ねてもよい。ボタン3E及び3Fは、例えば、音量ボタンである。
The
照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、タッチスクリーンディスプレイ2が顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、一つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
The
通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる通信方式は、無線通信規格である。無線通信規格として、例えば、2G、3G、4G等のセルラーフォンの通信規格がある。セルラーフォンの通信規格として、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。無線通信規格として、さらに、例えば、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。 The communication unit 6 communicates wirelessly. The communication method supported by the communication unit 6 is a wireless communication standard. Examples of wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. As cellular phone communication standards, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Multiple Access), CDMA2000, PDC (Personal Digital Cellular, GSM (registered trademark) mmloS). (Personal Handy-phone System). As wireless communication standards, for example, there are WiMAX (Worldwide Interoperability for Microwave Access), IEEE802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (NearCo), etc. The communication unit 6 may support one or more of the communication standards described above.
レシーバ7及びスピーカ11は、音出力部である。レシーバ7及びスピーカ11は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。
The
ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
The
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。アプリケーションは、例えば、ディスプレイ2Aに画面を表示させ、タッチスクリーン2Bを介して検出されるジェスチャに応じた処理をコントローラ10に実行させる。制御プログラムは、例えば、OSである。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
The programs stored in the
ストレージ9は、例えば、制御プログラム9A、地図アプリケーション9B、ブラウザアプリケーション9C、及び設定データ9Zを記憶する。地図アプリケーション9Bは、現在地又は任意の場所の地図データを表示するための機能、及び表示した地図データを拡大又は縮小するための機能等を提供する。ブラウザアプリケーション9Cは、WEBページを表示するためのWEBブラウジング機能を提供する。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。
The
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。制御プログラム9Aは、例えば、通信ユニット6、レシーバ7、及びマイク8等を制御することによって、通話を実現させる。制御プログラム9Aが提供する機能には、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を行う機能が含まれる。制御プログラム9Aが提供する機能は、地図アプリケーション9B等の他のプログラムが提供する機能と組み合わせて利用されることがある。
The
コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
The
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、レシーバ7、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、カメラ13、加速度センサ15、方位センサ16、及びジャイロスコープ17を含むが、これらに限定されない。
Specifically, the
コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して検出されたジェスチャに応じて、ディスプレイ2Aに表示されている情報を変更する等の各種制御を実行する。
For example, by executing the
カメラ12は、フロントフェイス1Aに面している物体を撮影するインカメラである。カメラ13は、バックフェイス1Bに面している物体を撮影するアウトカメラである。
The
コネクタ14は、他の装置が接続される端子である。コネクタ14は、USB(Universal Serial Bus)、HDMI(登録商標)(High−Definition Multimedia Interface)、ライトピーク(サンダーボルト(登録商標))、イヤホンマイクコネクタのような汎用的な端子であってもよい。コネクタ14は、Dockコネクタのような専用の端子でもよい。コネクタ14に接続される装置は、例えば、外部ストレージ、スピーカ、及び通信装置を含むが、これらに限定されない。
The
加速度センサ15は、スマートフォン1に働く加速度の方向及び大きさを検出する。方位センサ16は、地磁気の向きを検出する。ジャイロスコープ17は、スマートフォン1の角度及び角速度を検出する。加速度センサ15、方位センサ16及びジャイロスコープ17の検出結果は、スマートフォン1の位置及び姿勢の変化を検出するために、組み合わせて利用される。
The
図3においてストレージ9が記憶するプログラム及びデータの一部又は全部は、通信ユニット6による無線通信で他の装置からダウンロードされてもよい。図3においてストレージ9が記憶するプログラム及びデータの一部又は全部は、ストレージ9に含まれる読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。図3においてストレージ9が記憶するプログラム及びデータの一部又は全部は、コネクタ14に接続される読み取り装置が読み取り可能な非一過的な記憶媒体に記憶されていてもよい。非一過的な記憶媒体は、例えば、CD(登録商標)、DVD(登録商標)、Blu−ray(登録商標)等の光ディスク、光磁気ディスク、磁気記憶媒体、メモリカード、及びソリッドステート記憶媒体を含むが、これらに限定されない。
In FIG. 3, some or all of the programs and data stored in the
図3に示したスマートフォン1の構成は例であり、本発明の要旨を損なわない範囲において適宜変更してよい。例えば、ボタン3の数と種類は図3の例に限定されない。スマートフォン1は、画面に関する操作のためのボタンとして、ボタン3A〜3Cに代えて、テンキー配列又はQWERTY配列等のボタンを備えていてもよい。スマートフォン1は、画面に関する操作のために、ボタンを1つだけ備えてもよいし、ボタンを備えなくてもよい。図3に示した例では、スマートフォン1が2つのカメラを備えるが、スマートフォン1は、1つのカメラのみを備えてもよいし、カメラを備えなくてもよい。図3に示した例では、スマートフォン1が位置及び姿勢を検出するために3種類のセンサを備えるが、スマートフォン1は、このうちいくつかのセンサを備えなくてもよい。あるいは、スマートフォン1は、位置及び姿勢の少なくとも1つを検出するための他の種類のセンサを備えてもよい。
The configuration of the
図4を参照しながら、スマートフォン1の画面構成について説明する。図4に示すように、スマートフォン1のタッチスクリーンディスプレイ2(ディスプレイ2A)は、21:9の縦横比を有する。このため、スマートフォン1は、縦横比が21:9の画面60を表示することができる。21:9の縦横比は、映画でしばしば用いられる。
The screen configuration of the
一方、比較例として示したスマートフォン101のディスプレイ102Aは、16:9の縦横比を有する。このため、スマートフォン1は、縦横比が16:9の画面160を表示することができる。16:9の縦横比は、スマートフォンのディスプレイにおいて、現在最も一般的な縦横比である。
On the other hand, the
ここで、画面160と同じ画面をスマートフォン1のディスプレイ2Aに表示させると、16:9の領域が表示に用いられ、残りの5:9の領域は余白となってしまうことがある。すなわち、一般的な縦横比のディスプレイをもつスマートフォン向けに作成された画面をディスプレイ2Aに表示させると、何も表示されない領域ができてしまうことがある。もちろん、スクロール可能な画面であれば、スクロールによって表示されるはずの部分を表示することによって、5:9の領域を活用することができる。また、画面に配置される項目の間隔を広げることによって、画面を5:9の領域まで引き延ばすこともできる。
Here, if the same screen as the
しかしながら、画面を引き延ばすと、最適に配置されている項目の間隔が拡がってしまうために、画面の操作性又は視認性が低下してしまうことがある。そこで、スマートフォン1は、縦横比が16:9の第1表示領域61と、縦横比が5:9の第2表示領域62とを画面60に設け、それぞれの領域に別々の情報を表示することができるように構成されている。例えば、スマートフォン1は、第1表示領域61に第1画像を表示させ、第1表示領域61において操作を検出した位置に関する情報を第2表示領域62に表示させる。第1表示領域61と第2表示領域62とに別の情報を表示する機能は、画面60を提供する個々のアプリケーションプログラムによって提供されてもよいし、制御プログラム9Aによって提供されてもよい。
However, when the screen is stretched, the interval between the optimally arranged items is increased, and the operability or visibility of the screen may be reduced. Therefore, the
図4では、一般的な縦横比の画面を、縦横比を変更することなく表示することができる領域を第1表示領域61とし、一般的な縦横比の画面を変更することなく表示する場合に余白となる領域を第2表示領域62とする例を示した。しかしながら、第1表示領域61及び第2表示領域62は、これに限定されない。第1表示領域61及び第2表示領域62の面積比、配置、形状、及び向き等は、ディスプレイの縦横比及び表示する情報の種類等に応じて任意に変更してよい。
In FIG. 4, when a general aspect ratio screen can be displayed without changing the aspect ratio, the
図5を参照しながら、スマートフォン1による表示制御の第1の例について説明する。図5は、スマートフォン1による表示制御の第1の例を示す図である。スマートフォン1は、ステップS1では、ブラウザアプリケーション9Cを実行し、ブラウザアプリケーション9Cが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、ブラウザアプリケーション9Cが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によってWEBページを取得し、WEBページを再生して得た第1画像を第1表示領域61に表示している。ステップS1では、第2表示領域62には何も表示されていない。
A first example of display control by the
ステップS2では、利用者の指F1が、画面60の第1表示領域61をタッチしている。スマートフォン1は、第1表示領域61に対する操作を検出すると、第1表示領域61において操作を検出した位置に関する情報を第2表示領域62に表示する。操作を検出した位置に関する情報は、例えば、第1画像のうち、操作を検出した位置に対応する部分を拡大又は縮小した第2画像である。スマートフォン1は、第1表示領域61に表示しているWEBページの表示倍率が閾値よりも小さい場合に、第1画像のうち、操作を検出した位置に対応する部分を拡大して第2表示領域62に表示してもよい。スマートフォン1は、第1表示領域61に表示しているWEBページの表示倍率が閾値よりも小さくない場合に、第1画像のうち、操作を検出した位置に対応する部分を縮小して第2表示領域62に表示してもよい。
In step S <b> 2, the user's finger F <b> 1 touches the
さらに、スマートフォン1は、第1画像のうち、第1表示領域61において操作を検出した位置を示す指標オブジェクト64を、操作を検出した位置に対応する第1画像の部分を拡大又は縮小した第2画像に重ねて第2表示領域62に表示する。
Furthermore, the
ステップS2で、スマートフォン1が操作を検出した位置の近傍には、リンクオブジェクト63が存在している。このため、ステップS2では、リンクオブジェクト63が周囲と同様に拡大されて第2表示領域62に表示されている。リンクオブジェクト63は、他のWEBページへの参照を含み、スマートフォン1は、リンクオブジェクト63を選択する操作を検出すると、画面60に表示するWEBページを、リンクオブジェクト63が参照しているWEBページへ変更する。リンクオブジェクト63を選択する操作は、例えば、タップである。
In step S2, the
こうして、ステップS2では、拡大されたリンクオブジェクト63及びその周囲と、第1表示領域61において操作を検出した位置を示す指標オブジェクト64とが第2表示領域62に表示されている。WEBページを縮小表示すると、WEBページ全体を見渡すことが容易になるが、表面積が比較的大きい指で細かい操作を行うことは困難であるために、所望のリンクをうまく操作することができない場合がある。拡大されたリンクオブジェクト63及びその周囲と、指標オブジェクト64とを第2表示領域62に表示することにより、利用者は、現在操作している位置とリンクオブジェクト63の位置との関係を容易に把握することができ、リンクオブジェクト63を操作しやすくなる。
Thus, in step S <b> 2, the
ステップS3では、利用者は、把握した位置関係に基づいて指F1の位置を調整し、第1表示領域61においてリンクオブジェクト63をタップしている。このとき、第2表示領域62では、リンクオブジェクト63に指標オブジェクト64が重なって表示されている。スマートフォン1は、第1表示領域61のリンクオブジェクト63に対するタップを検出すると、画面60に表示するWEBページを、リンクオブジェクト63が参照しているWEBページへ変更する。
In step S <b> 3, the user adjusts the position of the finger F <b> 1 based on the grasped positional relationship, and taps the
その結果、ステップS4では、画面60が更新され、リンクオブジェクト63が参照しているWEBページを再生して得た第1画像が第1表示領域61に表示されている。第2表示領域62には何も表示しない状態に戻っている。
As a result, in step S4, the
このように、スマートフォン1は、第1表示領域61に第1画像を表示しているときに第1表示領域61に対する操作を検出すると、操作を検出した位置に関する情報を第2表示領域62に表示する。これにより、スマートフォン1は、第1画像のうち、利用者が関心のある部分に関する情報を、第1表示領域61に第1画像を表示したままで第2表示領域62に表示することができる。
As described above, when the
さらに、スマートフォン1は、第1表示領域61において操作を検出した位置を示す指標オブジェクト64を第2表示領域62に表示する。これにより、スマートフォン1は、第1画像のうち、利用者が関心のある部分と、実際に操作された位置との位置関係を利用者に分かりやすく示すことができる。
Furthermore, the
図6を参照しながら、スマートフォン1による表示制御の第1の例の処理手順について説明する。図6は、スマートフォン1による表示制御の第1の例の処理手順を示すフローチャートである。図6に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図6に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。以下の説明では、リンクオブジェクトを第1オブジェクトと呼び、指標オブジェクトを第2オブジェクトと呼ぶことがある。
A processing procedure of a first example of display control by the
図6に示すように、スマートフォン1のコントローラ10は、ステップS101として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS102として、第1表示領域61において操作を検出したかを判定する。第1表示領域61において操作を検出していない場合(ステップS102,No)、コントローラ10は、ステップS107に進む。
As illustrated in FIG. 6, the
コントローラ10は、ステップS107として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS107,No)、コントローラ10は、ステップS102に戻る。画面60を別の画面に変更する場合(ステップS107,Yes)、コントローラ10は、図6に示す処理手順を終了させる。
In step S107, the
第1表示領域61において操作を検出した場合(ステップS102,Yes)、コントローラ10は、ステップS103に進む。コントローラ10は、ステップS103として、第1表示領域61において操作を検出した位置に関する情報を第2表示領域62に表示させる。そして、コントローラ10は、ステップS104として、第1表示領域61において操作を検出した位置を示す第2オブジェクトを第2表示領域62に表示させる。
When an operation is detected in the first display area 61 (step S102, Yes), the
続いて、コントローラ10は、ステップS105として、第1オブジェクトの選択を検出したかを判定する。第1オブジェクトの選択を検出している場合(ステップS105,Yes)、コントローラ10は、ステップS106に進む。コントローラ10は、ステップS106として、第1オブジェクトに応じた画像を第1表示領域61に表示し、第2表示領域62をクリアする。第1オブジェクトの選択を検出していない場合(ステップS105,No)、ステップS106は実行されない。
Subsequently, the
その後、コントローラ10は、既に説明したステップS107へ進む。
Thereafter, the
スマートフォン1は、第2表示領域62に表示されている第1オブジェクトを選択する操作を検出した場合に、第1表示領域61に表示されている第1オブジェクトを選択する操作を検出した場合と同様の処理を実行してもよい。
The
図7を参照しながら、スマートフォン1による表示制御の第2の例について説明する。図7は、スマートフォン1による表示制御の第2の例を示す図である。
A second example of display control by the
スマートフォン1は、ステップS11では、ブラウザアプリケーション9Cを実行し、ブラウザアプリケーション9Cが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、ブラウザアプリケーション9Cが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によってWEBページを取得し、WEBページを再生して得た第1画像を第1表示領域61に表示している。ステップS11では、第2表示領域62には何も表示されていない。
In step S11, the
ステップS11では、利用者の指F1が、画面60の第1表示領域61をタッチしている。タッチされた位置の近傍には、リンクオブジェクト63a及びリンクオブジェクト63bが配置されている。スマートフォン1は、第1表示領域61に対する操作を検出すると、第1表示領域61において操作を検出した位置に関する情報を第2表示領域62に表示する。
In step S <b> 11, the user's finger F <b> 1 touches the
表示制御の第2の例では、スマートフォン1は、第1表示領域61に表示している第1画像において、操作を検出した位置の近傍のオブジェクトのうち、操作に対する処理が割り当てられているオブジェクトのみを第2表示領域62に表示する。スマートフォン1は、操作に対する処理が割り当てられているオブジェクトに対する操作を検出すると、そのオブジェクトに割り当てられている処理を実行する。操作に対する処理が割り当てられているオブジェクトは、例えば、リンクオブジェクト及びボタンオブジェクト等である。画面60にWEBページが表示されている場合、WEBページに対応するHTMLファイルを解析することで、操作を検出した位置の近傍のオブジェクトのうち、操作に対する処理が割り当てられているオブジェクトを抽出することができる。
In the second example of display control, the
ステップS12では、スマートフォン1は、第1表示領域61において操作を検出した位置の近傍に配置されているリンクオブジェクト63a及びリンクオブジェクト63bを第2表示領域62に表示している。さらに、スマートフォン1は、操作を検出した位置を示す指標オブジェクト64を第2表示領域62に表示している。
In step S <b> 12, the
このように、スマートフォン1は、第1表示領域61に第1画像を表示しているときに第1表示領域61に対する操作を検出すると、操作を検出した位置に関する情報のうち、操作に対する処理が割り当てられているオブジェクトを第2表示領域62に表示する。これにより、利用者は、操作した位置の近傍に存在する、操作に対する処理が割り当てられているオブジェクトを容易に把握することができる。
As described above, when the
さらに、スマートフォン1は、第1表示領域61において操作を検出した位置を示す指標オブジェクト64を第2表示領域62に表示する。これにより、スマートフォン1は、利用者が操作しようとしている可能性が高いオブジェクトと、実際に操作された位置との位置関係を利用者に分かりやすく示すことができる。
Furthermore, the
図8を参照しながら、スマートフォン1による表示制御の第2の例の処理手順について説明する。図8は、スマートフォン1による表示制御の第2の例の処理手順を示すフローチャートである。図8に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図8に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。
A processing procedure of a second example of display control by the
図8に示すように、スマートフォン1のコントローラ10は、ステップS201として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS202として、第1表示領域61において操作を検出したかを判定する。第1表示領域61において操作を検出していない場合(ステップS202,No)、コントローラ10は、ステップS207に進む。
As shown in FIG. 8, the
コントローラ10は、ステップS207として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS207,No)、コントローラ10は、ステップS202に戻る。画面60を別の画面に変更する場合(ステップS207,Yes)、コントローラ10は、図8に示す処理手順を終了させる。
In step S207, the
第1表示領域61において操作を検出した場合(ステップS202,Yes)、コントローラ10は、ステップS203に進む。コントローラ10は、ステップS203として、第1表示領域61において操作を検出した位置の近傍に配置されている第1オブジェクトを第2表示領域62に表示させる。そして、コントローラ10は、ステップS204として、第1表示領域61において操作を検出した位置を示す第2オブジェクトを第2表示領域62に表示させる。
When an operation is detected in the first display area 61 (step S202, Yes), the
続いて、コントローラ10は、ステップS205として、第1オブジェクトの選択を検出したかを判定する。第1オブジェクトの選択を検出している場合(ステップS205,Yes)、コントローラ10は、ステップS206に進む。コントローラ10は、ステップS206として、第1オブジェクトに応じた画像を第1表示領域61に表示し、第2表示領域62をクリアする。第1オブジェクトの選択を検出していない場合(ステップS205,No)、コントローラ10は、ステップS206は実行されない。
Subsequently, the
その後、コントローラ10は、既に説明したステップS207に進む。
Thereafter, the
スマートフォン1は、第2表示領域62に表示されている第1オブジェクトを選択する操作を検出した場合に、第1表示領域61に表示されている第1オブジェクトを選択する操作を検出した場合と同様の処理を実行してもよい。
The
図9を参照しながら、スマートフォン1による表示制御の第2の例の変形例について説明する。図9は、スマートフォン1による表示制御の第2の例の変形例を示す図である。
A modification of the second example of display control by the
スマートフォン1は、ステップS21では、ブラウザアプリケーション9Cを実行し、ブラウザアプリケーション9Cが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、ブラウザアプリケーション9Cが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によってWEBページを取得し、WEBページを再生して得た第1画像を第1表示領域61に表示している。ステップS21では、第2表示領域62には何も表示されていない。
In step S21, the
ステップS21では、利用者の指F1が、画面60の第1表示領域61をタッチしている。タッチされた位置の近傍には、リンクオブジェクト63a及びリンクオブジェクト63bが配置されている。スマートフォン1は、第1表示領域61に対する操作を検出すると、第1表示領域61において操作を検出した位置に関する情報を第2表示領域62に表示する。
In step S <b> 21, the user's finger F <b> 1 touches the
上述した表示制御の第2の例では、スマートフォン1は、第1表示領域61において操作を検出した位置の近傍の、操作に対する処理が割り当てられているオブジェクトを、第1表示領域における配置及び表示形態を維持したままで第2表示領域62に表示する。一方、この変形例では、スマートフォン1は、第1表示領域61において操作を検出した位置の近傍の、操作に対する処理が割り当てられているオブジェクトを、一覧形式で第2表示領域62に表示する。ステップS22では、リンクオブジェクト63aに対応するリストアイテム62aと、リンクオブジェクト63bに対応するリストアイテム62bとを含むリストを第2表示領域62に表示している。
In the second example of display control described above, the
このように、スマートフォン1は、第1表示領域61に第1画像を表示しているときに第1表示領域61に対する操作を検出すると、第1表示領域61において操作を検出した位置に関する情報のうち、操作に対する処理が割り当てられているオブジェクトを第2表示領域62に一覧表示する。これにより、利用者は、第1表示領域61において操作した位置の近傍に存在する、操作に対する処理が割り当てられているオブジェクトをさらに容易に把握することができる。
As described above, when the
スマートフォン1は、第2表示領域62に表示されているリストアイテムを選択する操作を検出した場合に、第1表示領域61に表示されている対応する第1オブジェクトを選択する操作を検出した場合と同様の処理を実行してもよい。
When the
図10を参照しながら、スマートフォン1による表示制御の第3の例について説明する。図10は、スマートフォン1による表示制御の第3の例を示す図である。スマートフォン1は、ステップS31では、ブラウザアプリケーション9Cを実行し、ブラウザアプリケーション9Cが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、ブラウザアプリケーション9Cが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によってWEBページを取得し、WEBページを再生した第1画像を第1表示領域61に表示している。ステップS31では、第2表示領域62には何も表示されていない。
A third example of display control by the
スマートフォン1は、タッチスクリーン2Bに近接する物体の位置を検出する機能を有している。具体的には、スマートフォン1は、タッチスクリーン2Bの感度を高くすることによって、タッチスクリーンディスプレイ2に接触している物体だけでなく、タッチスクリーンディスプレイ2に近接している物体の位置を3次元的に検出することができる。すなわち、スマートフォン1は、近接している物体に最も近いタッチスクリーンディスプレイ2の表面上の位置の座標と、近接している物体とタッチスクリーンディスプレイ2の表面との距離とを検出することができる。タッチスクリーンディスプレイ2の近傍に位置する物体の検出方法は、これに限定されない。例えば、スマートフォン1は、カメラ12が撮影する画像、又はタッチスクリーンディスプレイ2に複数配置された受光素子の検出信号に基づいて、タッチスクリーンディスプレイ2に近接する物体の位置を検出してもよい。
The
ステップS32では、利用者の指F1が、画面60の第1表示領域61に近接し、スマートフォン1が検出可能な範囲に位置している。スマートフォン1は、第1表示領域61に近接している物体を検出すると、第1画像のうち、近接している物体に最も近い部分を拡大した第2画像を第2表示領域62に表示する。第2画像の表示倍率は、近接している物体とタッチスクリーンディスプレイ2との距離に基づいて決定される。具体的には、第2画像の表示倍率は、近接している物体とタッチスクリーンディスプレイ2との距離が近いほど高くなる。このため、第2画像は、指F1がタッチスクリーンディスプレイ2に近づくほど拡大され、指F1がタッチスクリーンディスプレイ2から遠ざかるほど縮小される。
In step S <b> 32, the user's finger F <b> 1 is close to the
ステップS33では、利用者の指F1が、タッチスクリーンディスプレイ2の面方向に沿って水平に移動している。スマートフォン1は、物体がほぼ水平に移動していることを検出すると、第1画像のうち第2画像として表示する部分の移動、及び第2画像の表示倍率の変更を行わずに、第1画像及び第2画像をそのまま表示させる。その結果、利用者は、第1表示領域61及び第2表示領域62の内容を維持したままで、指F1を第2表示領域62に近接する位置まで移動させることができる。
In step S <b> 33, the user's finger F <b> 1 moves horizontally along the surface direction of the
ほぼ水平な移動は、利用者が指F1を水平に移動させようとした場合に一般的に生じる上下方向の変位を許容することが好ましい。スマートフォン1は、指F1の移動する軌跡が上方向又は下方向に所定の範囲で傾いている場合でも、指F1がほぼ水平に移動していると判定することが好ましい。所定の範囲は、例えば±10度程度である。
It is preferable that the substantially horizontal movement allows the vertical displacement that generally occurs when the user tries to move the finger F1 horizontally. The
ステップS34では、利用者の指F1が、第2表示領域62において、リンクオブジェクト63をタップしている。スマートフォン1は、タッチスクリーンディスプレイ2に対する物体の接触を検出すると、どのような操作が行われたかを判定し、判定した操作に応じた処理を実行する。スマートフォン1は、リンクオブジェクト63に対するタップを検出すると、ステップS35として、リンクオブジェクト63に応じた画像を、第1表示領域61に表示する。
In step S <b> 34, the user's finger F <b> 1 taps the
このように、スマートフォン1は、第1表示領域61に近接している物体とタッチスクリーンディスプレイ2との距離に応じて、第2表示領域62に表示する情報の表示倍率を変更する。これにより、スマートフォン1は、第2表示領域62に表示する情報の表示倍率の変更を、直感的な操作により可能にし、利用者の利便性を向上させることができる。
As described above, the
図11を参照しながら、スマートフォン1による表示制御の第3の例の処理手順について説明する。図11は、スマートフォン1による表示制御の第3の例の処理手順を示すフローチャートである。図11に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図11に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。
A processing procedure of a third example of display control by the
図11に示すように、スマートフォン1のコントローラ10は、ステップS301として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS302として、タッチスクリーンディスプレイ2に近接又は接触している物体を検出したかを判定する。物体を検出していない場合(ステップS302,No)、コントローラ10は、ステップS308に進む。
As shown in FIG. 11, the
コントローラ10は、ステップS308として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS308,No)、コントローラ10は、ステップS302に戻る。画面60を別の画面に変更する場合(ステップS308,Yes)、コントローラ10は、図11に示す処理手順を終了させる。
In step S308, the
物体を検出した場合(ステップS302,Yes)、コントローラ10は、ステップS303として、物体がタッチスクリーンディスプレイ2に接触があったかを判定する。接触があった場合(ステップS304,Yes)、コントローラ10は、ステップS305として、どのような操作が行われたかを判定する。操作が検出されなかった場合(ステップS306,No)、コントローラ10は、既に説明したステップS308に進む。操作が検出された場合(ステップS306,Yes)、コントローラ10は、ステップS307として、操作に応じた処理を実行する。そして、コントローラ10は、既に説明したステップS308に進む。
When an object is detected (step S302, Yes), the
接触がなかった場合(ステップS304,No)、コントローラ10は、ステップS309に進む。コントローラ10は、ステップS309として、物体がタッチスクリーンディスプレイ2に対してほぼ水平に移動しているかを判定する。物体がほぼ水平に移動していない場合(ステップS309,No)、コントローラ10は、ステップS310に進む。コントローラ10は、ステップS310として、第1画像のうち検出位置に対応する部分を第2画像として、物体とタッチスクリーンディスプレイ2との距離に応じた表示倍率で第2表示領域62に表示させる。物体がほぼ水平に移動している場合(ステップS309,Yes)、ステップS310は実行されない。
When there is no contact (step S304, No), the
その後、コントローラ10は、既に説明したステップS308に進む。
Thereafter, the
この例では、物体がタッチスクリーンディスプレイ2に対してほぼ水平に移動している場合に、第1表示領域61及び第2表示領域62の内容を維持したが、表示制御はこれに限定されない。スマートフォン1は、物体がタッチスクリーンディスプレイ2に対してほぼ水平に移動していることを検出した場合に、移動方向に応じて、第1表示領域61及び第2表示領域62のいずれか、又は両方の内容をスクロールさせてもよい。
In this example, when the object is moving substantially horizontally with respect to the
図12を参照しながら、スマートフォン1による表示制御の第4の例について説明する。図12は、スマートフォン1による表示制御の第4の例を示す図である。
A fourth example of display control by the
スマートフォン1は、ステップS41では、地図アプリケーション9Bを実行し、地図アプリケーション9Bが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、地図アプリケーション9Bが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によって地図データを取得し、地図データから生成した第1画像を画面60の第1表示領域61に表示する。第2表示領域62には何かしらの情報が表示されていてもよいし、何も表示されていなくてもよい。
In step S41, the
ステップS42では、利用者が、第1表示領域61に表示されている第1画像を拡大するために、指F1及び指F2を用いて、第1表示領域61でピンチアウトを開始している。この例では、利用者は、両手を使ってピンチアウトを行っているが、ピンチアウトは片手で行うこともできる。
In step S <b> 42, the user starts pinching out in the
スマートフォン1には、第1表示領域61でのピンチ操作の操作量に関して閾値が設定されている。ピンチ操作の操作量とは、例えば、2本の指の移動量の合計である。第1表示領域61でのピンチ操作が開始されると、スマートフォン1は、第1画像のうちピンチ操作の開始位置の中心に対応する部分を、第1画像と同じ表示倍率で第2画像として第2表示領域62に表示する。そして、第1表示領域61でのピンチ操作の操作量が閾値に達するまでは、スマートフォン1は、ステップS43のように、第1表示領域61に表示されている第1画像を拡大せずに、第2表示領域62に表示されている第2画像を操作量に応じて拡大させる。
A threshold is set for the operation amount of the pinch operation in the
ピンチ操作による拡大は、通常、ピンチ操作の開始位置の中心(2つの指が移動を開始した位置の中心)を基準として行われるが、2つの指の中心に拡大したい部分が位置するように指をタッチスクリーンディスプレイ2に正確に置くのが難しいことがある。このため、拡大が開始されて初めて、指を置く位置がずれていたことに気付くことがある。この場合、拡大が実行された後に誤操作に気付くため、拡大前のどの部分を誤って拡大したのかを利用者が容易に把握できずに困ることがある。
Enlargement by the pinch operation is normally performed with reference to the center of the start position of the pinch operation (the center of the position where the two fingers start moving). May be difficult to place on the
ピンチの操作量が閾値に達するまでは第2表示領域62の第2画像のみを拡大することにより、利用者は、所望の部分が拡大されているかを確認しながらピンチを実行できる。さらに、第1表示領域61の第1画像は拡大されていないため、利用者は、指を置く位置がずれていたことに気付いた場合に、位置を容易に修正することができる。このような効果を得るために、ピンチ操作の操作量に関する閾値は、利用者が第2画像を見て所望の位置が拡大されているか否かを確認することができる程度の値に設定される。
By enlarging only the second image in the
利用者は、所望の位置が拡大されていることを確認すると、ピンチを継続して実行する。そして、ピンチ操作の操作量が閾値に達すると、ステップS44のように、第1表示領域61に表示されている第1画像を操作量に応じて拡大させ始める。スマートフォン1は、ピンチ操作の操作量が閾値に達したときに、一瞬のうちに、それまでの操作量に応じた倍率で第1画像を拡大させてもよい。あるいは、スマートフォン1は、ピンチ操作の操作量が閾値に達したときに、1〜数秒の時間をかけて、それまでの操作量に応じた倍率になるまで第1画像を徐々に拡大させてもよい。その後は、第1表示領域61の第1画像は、利用者のピンチ操作に応じて、拡大又は縮小される。
When the user confirms that the desired position is enlarged, the user continues to pinch. When the operation amount of the pinch operation reaches the threshold value, the first image displayed in the
図13を参照しながら、スマートフォン1による表示制御の第4の例の処理手順について説明する。図13は、スマートフォン1による表示制御の第4の例の処理手順を示すフローチャートである。図13に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図13に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。
A processing procedure of a fourth example of display control by the
図13に示すように、スマートフォン1のコントローラ10は、ステップS401として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS402として、第1表示領域61に対するピンチ操作を検出したかを判定する。ピンチ操作を検出していない場合(ステップS402,No)、コントローラ10は、ステップS406に進む。
As illustrated in FIG. 13, the
コントローラ10は、ステップS406として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS406,No)、コントローラ10は、ステップS402に戻る。画面60を別の画面に変更する場合(ステップS406,Yes)、コントローラ10は、図13に示す処理手順を終了させる。
In step S406, the
ピンチ操作を検出した場合(ステップS402,Yes)、コントローラ10は、ステップS403に進む。コントローラ10は、ステップS403として、ピンチ操作の操作量が上記の閾値に到達したかを判定する。操作量が閾値に達していない場合(ステップS403,No)、コントローラ10は、ステップS404に進む。コントローラ10は、ステップS404として、第1表示領域61の倍率を保持したままで、第1画像のうち操作位置に対応する部分を第2画像として、操作量に応じた倍率で第2表示領域62に表示させる。そして、コントローラ10は、既に説明したステップS406に進む。
When the pinch operation is detected (step S402, Yes), the
操作量が閾値に達している場合(ステップS403,Yes)、コントローラ10は、ステップS405に進む。コントローラ10は、ステップS405として、第1表示領域61に表示させている第1画像の倍率を操作量に応じて変更し、変更した倍率で第1画像を表示させる。そして、コントローラ10は、既に説明したステップS406に進む。
When the operation amount has reached the threshold value (step S403, Yes), the
図14を参照しながら、スマートフォン1による表示制御の第5の例について説明する。図14は、スマートフォン1による表示制御の第5の例を示す図である。
A fifth example of display control by the
スマートフォン1は、ステップS51では、地図アプリケーション9Bを実行し、地図アプリケーション9Bが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、地図アプリケーション9Bが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によって地図データを取得し、地図データから生成した第1画像を画面60の第1表示領域61に表示する。第2表示領域62には何かしらの情報が表示されていてもよいし、何も表示されていなくてもよい。
In step S51, the
ステップS52では、第1表示領域61に表示されている地図データを拡大したい利用者の指F1が、第1表示領域61に対してダブルタップしている。スマートフォン1は、第1表示領域61に対するダブルタップの操作を検出すると、ステップS53として、第1表示領域61の地図データを拡大した第2画像(情報)を第2表示領域62に表示する。第2画像の拡大倍率は、予め決められていてもよいし、操作の種類、回数、間隔、及び強度等に応じて決定してもよい。第2画像の拡大倍率を変化させる操作は、ダブルタップではなく、ロングタッチ等の他の操作でもよい。
In step S <b> 52, the finger F <b> 1 of the user who wants to enlarge the map data displayed in the
スマートフォン1は、第1表示領域61において操作を検出した位置に対応する位置を示す指標オブジェクト64を第1表示領域61及び第2表示領域62に表示する。さらに、スマートフォン1は、第2画像の拡大倍率を示す倍率オブジェクト66を第2表示領域62に表示する。ステップS53では、第2画像の拡大倍率が「5」倍であることを示す倍率オブジェクト66が第2表示領域62に表示されている。
The
このように、スマートフォン1が第1表示領域61に地図データを表示する場合に、第1表示領域61に対するダブルタップの操作を検出すると、拡大又は縮小された第2画像と第2画像の表示倍率とを第2表示領域62に表示する。これにより、スマートフォン1は、第1表示領域61に表示している第1画像を利用者に簡単な操作で拡大させることができる。本実施形態では、スマートフォン1は、第1画像に対する所定の操作を検出した場合に、第1画像を拡大させる場合について説明したが、これに限定されない。例えば、スマートフォン1は、第1画像に対する所定の操作を検出した場合に、第1画像を縮小させるように構成されてもよい。
As described above, when the
図15を参照しながら、スマートフォン1による表示制御の第5の例の処理手順について説明する。図15は、スマートフォン1による表示制御の第5の例の処理手順を示すフローチャートである。図15に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図15に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。
A processing procedure of a fifth example of display control by the
図15に示すように、スマートフォン1のコントローラ10は、ステップS501として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS502として、第1表示領域61に対する操作を検出したかを判定する。操作を検出していない場合(ステップS502,No)、コントローラ10は、ステップS506に進む。
As illustrated in FIG. 15, the
コントローラ10は、ステップS506として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS506,No)、コントローラ10は、ステップS502に戻る。画面60を別の画面に変更する場合(ステップS506,Yes)、コントローラ10は、図15に示す処理手順を終了させる。
In step S506, the
操作を検出した場合(ステップS502,Yes)、コントローラ10は、ステップS503に進む。コントローラ10は、ステップS503として、第1画像のうち操作位置に対応する部分の表示倍率を変更し、第2画像として第2表示領域62に表示させる。コントローラ10は、ステップS504として、表示倍率を第2表示領域62に表示させる。コントローラ10は、ステップS505として、操作位置を示す第2オブジェクトを、第1表示領域61及び第2表示領域62に表示させる。そして、コントローラ10は、既に説明したステップS506に進む。
When an operation is detected (step S502, Yes), the
図16を参照しながら、スマートフォン1による表示制御の第6の例について説明する。図16は、スマートフォン1による表示制御の第6の例を示す図である。
A sixth example of display control by the
スマートフォン1は、ステップS61では、地図アプリケーション9Bを実行し、地図アプリケーション9Bが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、地図アプリケーション9Bが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によって地図データを取得し、地図データから生成した第1画像を画面60の第1表示領域61に表示する。第2表示領域62には何かしらの情報が表示されていてもよいし、何も表示されていなくてもよい。
In step S61, the
ステップS62では、第1表示領域61に表示されている地図データを拡大したい利用者の指F1、F2が、ピンチアウトの操作を行い、その後ピンチアウトの操作を終了している。
In step S62, the fingers F1 and F2 of the user who wants to enlarge the map data displayed in the
スマートフォン1は、第1表示領域61に対するピンチ操作を検出すると、ステップS63として、第1表示領域61に表示している第1画像を第2画像として第2表示領域62に表示する。すなわち、スマートフォン1は、拡大前の第1画像を第2画像として、第2表示領域62に表示する。第2画像は、第1画像と同じ倍率で、操作位置を中心とした第1画像である。スマートフォン1は、ピンチアウトの操作位置を示す指標オブジェクト64を第2表示領域62に表示する。そして、スマートフォン1は、ステップS63として、操作量に応じた倍率で第1画像を拡大して第1表示領域61に表示する。
When the
このように、スマートフォン1は、第1表示領域61に対するピンチ操作を検出すると、拡大又は縮小前の第1画像を第2画像として第2表示領域62に表示し、第1表示領域61の第1画像を操作量に応じた倍率で拡大又は縮小する。これにより、スマートフォン1は、利用者が第1表示領域61の第1画像を拡大又は縮小させても、第2表示領域62に表示している拡大又は縮小前の第1画像を利用者に確認させることができる。
As described above, when the
第1表示領域61に対するピンチアウトの操作が終了した後、利用者は、当該操作位置の近傍に対して2回のピンチアウトの操作を続けて行っている。スマートフォン1は、ピンチアウトを検出するごとに、操作量に応じた倍率となるように、第1表示領域61に表示している第1画像を変更している。この場合、スマートフォン1は、第2表示領域62に表示している第2画像は変更していない。スマートフォン1は、ステップS64として、ピンチアウトを検出した操作位置を示す複数の指標オブジェクト64を第2表示領域62に表示する。複数の指標オブジェクト64は、例えば、異なる表示色で表示したり、操作順番を示すように表示してもよい。これにより、利用者は、第2表示領域62に表示された複数の指標オブジェクト64を参照することで、拡大又は縮小前の第1画像における操作位置の履歴を確認することができる。
After the pinch-out operation on the
図17を参照しながら、スマートフォン1による表示制御の第6の例の処理手順について説明する。図17は、スマートフォン1による表示制御の第6の例の処理手順を示すフローチャートである。図17に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図17に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。
A processing procedure of a sixth example of display control by the
図17に示すように、スマートフォン1のコントローラ10は、ステップS601として、画面60の第1表示領域61に第1画像を表示させる。コントローラ10は、ステップS602として、第1表示領域61に対するピンチ操作を検出したかを判定する。ピンチ操作を検出していない場合(ステップS602,No)、コントローラ10は、ステップS607に進む。
As illustrated in FIG. 17, the
コントローラ10は、ステップS607として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS607,No)、コントローラ10は、ステップS602に戻る。画面60を別の画面に変更する場合(ステップS607,Yes)、コントローラ10は、図17に示す処理手順を終了させる。
In step S607, the
ピンチ操作を検出した場合(ステップS602,Yes)、コントローラ10は、ステップS603に進む。コントローラ10は、ステップS603として、第2表示領域62に第2画像を表示中であるかを判定する。表示中ではない場合(ステップS603,No)、コントローラ10は、ステップS604に進む。コントローラ10は、ステップS604として、第1表示領域61に表示させている第1画像を第2画像として第2表示領域62に表示させる。表示中である場合(ステップS603,Yes)、検出したピンチ操作は連続したピンチ操作であり、コントローラ10は、ステップS604を行わない。
When the pinch operation is detected (step S602, Yes), the
コントローラ10は、ステップS605として、ピンチ位置を示す第2オブジェクトを第2表示領域62に表示させる。コントローラ10は、ステップS606として、第1表示領域61に表示させている第1画像の倍率をピンチ操作の操作量に応じて変更し、変更した倍率で第1画像を表示させる。そして、コントローラ10は、既に説明したステップS607に進む。
The
図18を参照しながら、スマートフォン1による表示制御の第7の例について説明する。図18は、スマートフォン1による表示制御の第7の例を示す図である。スマートフォン1は、ステップS71では、ブラウザアプリケーション9Cを実行し、ブラウザアプリケーション9Cが提供する画面60をタッチスクリーンディスプレイ2(ディスプレイ2A)に表示している。具体的には、スマートフォン1は、ブラウザアプリケーション9Cが提供する機能に基づいて、通信ユニット6を用いたインターネット通信によってWEBページを取得し、WEBページを再生した第1画像を第1表示領域61に表示している。
A seventh example of display control by the
スマートフォン1は、第1画像のうち、第1表示領域61に表示している部分に対応する領域を第2画像として第2表示領域62に表示している。第1表示領域61に表示している部分に対応する領域は、例えば、第1画像のうち、第1表示領域61に表示されている部分の一部、全体、又はそれを含むより広い領域である。第2画像の初期の表示倍率は、予め設定された倍率である。第2画像の表示倍率は、利用者の操作に応じて変更可能であってもよい。
The
さらに、スマートフォン1は、WEBページを再生した第1画像のうち、第1表示領域61に表示されているのがどの部分であるかを示すインジケータ61aを第1表示領域61に表示している。
Furthermore, the
ステップS72では、利用者の指F1が、第1表示領域61に対してスクロール操作を行っている。具体的には、利用者は、指F1を用いて、第1表示領域61で下フリックを行っている。
In step S <b> 72, the user's finger F <b> 1 performs a scroll operation on the
スマートフォン1は、第1表示領域61に対するスクロール操作を検出すると、ステップS73として、第1表示領域61を、スクロール操作に応じた第1速度で操作方向にスクロールさせる。さらに、スマートフォン1は、第1表示領域61をスクロールさせている第1速度とは異なる第2速度で、第2表示領域62をスクロールさせる。
When detecting the scroll operation on the
第1表示領域61に表示している第1画像を拡大した第2画像を第2表示領域62に表示している場合に、第2表示領域62を第1表示領域61と同じ第1速度でスクロールさせると、第2表示領域62は視認が困難な速度でスクロールされることになる。このため、スマートフォン1は、第2速度を、第1速度よりも遅い速度に設定する。これにより、スマートフォン1は、第1表示領域61に連動して第2表示領域62をスクロールしても、第2表示領域62の表示内容を利用者に視認させることができる。第2速度は、スクロール操作の速度にかかわらず、一定の速度であってもよい。第2速度は、利用者がスクロール中の情報の内容を認識できる程度の速度であることが好ましい。
When a second image obtained by enlarging the first image displayed in the
さらに、スマートフォン1は、第1表示領域61又は第2表示領域62においてスクロール停止操作を検出すると、スクロール停止操作を検出した表示領域のスクロールを停止させる。そして、スマートフォン1は、他方の表示領域に表示される部分を、スクロール停止操作を検出した表示領域に表示されている部分と対応するように変更する。スクロール停止操作は、例えば、タッチ、又はロングタッチである。
Furthermore, when the
例えば、第1表示領域61では第1画像の中央に近い部分がスクロールされており、第2表示領域62ではまだ第1画像の先頭に近い部分がスクロールされているものとする。このとき、第1表示領域61でスクロール停止操作を検出すると、スマートフォン1は、第1表示領域61には、第1画像の中央に近い部分を表示させ、さらに、第2表示領域62にも、第1画像の中央に近い部分を第2画像として表示させる。一方、第2表示領域62でスクロール停止操作を検出すると、スマートフォン1は、第2表示領域62には、第1画像の先頭に近い部分を第2画像として表示させ、さらに、第1表示領域61にも、第1画像の先頭に近い部分を表示させる。
For example, it is assumed that a portion near the center of the first image is scrolled in the
このように、スマートフォン1は、第1表示領域61に対するスクロール操作を検出すると、操作に応じた第1速度で第1表示領域61をスクロールし、第1速度よりも遅い第2速度で第2表示領域62をスクロールさせる。これにより、利用者は、第1表示領域61のスクロール操作が意図せずに高速になってしまった場合でも、低速でスクロールしている第2表示領域62で表示内容を確認しながら、所望の位置でスクロールを停止させることができる。
As described above, when the
ステップS74では、利用者の指F1が、スクロール速度の遅い第2表示領域62に対してスクロール停止操作を行っている。ステップS74に示す例では、利用者の指F1が、第2表示領域62にスクロール表示されている第2画像の「きちつ」に対応した領域でスクロール停止操作を行っている。スマートフォン1は、ステップS75として、第2表示領域62のスクロールを停止させ、さらに、第1表示領域61に表示される第1画像の部分を「きちつ」に対応した領域が含まれる部分に変更して、第2表示領域62のスクロールを停止させている。
In step S74, the user's finger F1 performs a scroll stop operation on the
図19を参照しながら、スマートフォン1による表示制御の第7の例の処理手順について説明する。図19は、スマートフォン1による表示制御の第7の例の処理手順を示すフローチャートである。図19に示す処理手順は、コントローラ10が制御プログラム9Aを実行することによって実現される。図19に示す処理手順は、コントローラ10がディスプレイ2Aに画面60を表示させるときに実行される。
A processing procedure of a seventh example of display control by the
図19に示すように、スマートフォン1のコントローラ10は、ステップS701として、画面60の第1表示領域61に第1画像を表示させる。さらに、コントローラ10は、第1画像のうち、第1表示領域61に表示している部分に対応する領域を第2画像として第2表示領域62に表示する。コントローラ10は、ステップS702として、第1表示領域61に対するスクロール操作を検出したかを判定する。スクロール操作を検出した場合(ステップS702,Yes)、コントローラ10は、ステップS703に進む。コントローラ10は、ステップS703として、スクロール操作に応じた第1速度で表示領域61をスクロールさせる。コントローラ10は、ステップS704として、第2速度で表示領域62をスクロールさせる。スクロール操作を検出していない場合(ステップS702,No)、ステップS703及び704は実行されない。
As illustrated in FIG. 19, the
コントローラ10は、ステップS705として、スクロール操作以外の操作を検出したかを判定する。スクロール操作以外の操作を検出した場合(ステップS705,Yes)、コントローラ10は、ステップS706に進む。コントローラ10は、ステップS706として、操作に応じた処理を実行する。スクロール操作以外の操作を検出していない場合(ステップS705,No)、ステップS706は実行されない。
In step S705, the
その後、コントローラ10は、ステップS707として、画面60を別の画面に変更するかを判定する。画面60を別の画面に変更する場合には、例えば、利用者が画面を切り替える操作を行った場合、及び割り込み処理によって強制的に画面を切り替える場合が含まれる。画面60を別の画面に変更しない場合(ステップS707,No)、コントローラ10は、ステップS702に戻る。画面60を別の画面に変更する場合(ステップS708,Yes)、コントローラ10は、図19に示す処理手順を終了させる。
Thereafter, the
本出願の開示する実施形態は、発明の要旨及び範囲を逸脱しない範囲で変更することができる。さらに、本出願の開示する実施形態及びその変形例は、適宜組み合わせることができる。例えば、上記の実施形態は、以下のように変形してもよい。 Embodiment which this application discloses can be changed in the range which does not deviate from the summary and range of invention. Furthermore, the embodiment disclosed in the present application and its modifications can be combined as appropriate. For example, the above embodiment may be modified as follows.
例えば、図5に示した各プログラムは、複数のモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。 For example, each program shown in FIG. 5 may be divided into a plurality of modules, or may be combined with other programs.
上記の実施形態では、タッチスクリーンを備える電子機器の例として、スマートフォンについて説明したが、添付の請求項に係る電子機器は、スマートフォンに限定されない。添付の請求項に係る電子機器は、スマートフォン以外の電子機器であってもよい。電子機器は、例えば、モバイルフォン、タブレット、携帯型パソコン、デジタルカメラ、メディアプレイヤ、電子書籍リーダ、ナビゲータ、及びゲーム機を含むが、これらに限定されない。添付の請求項に係る電子機器は、据え置き型の電子機器であってもよい。据え置き型の電子機器は、例えば、デスクトップパソコン、自動預入支払機(ATM)、及びテレビ受像器を含むが、これらに限定されない。 In the above embodiment, a smartphone has been described as an example of an electronic device including a touch screen. However, the electronic device according to the appended claims is not limited to a smartphone. The electronic device according to the appended claims may be an electronic device other than a smartphone. Examples of electronic devices include, but are not limited to, mobile phones, tablets, portable personal computers, digital cameras, media players, electronic book readers, navigators, and game machines. The electronic device according to the appended claims may be a stationary electronic device. The stationary electronic device includes, for example, a desktop personal computer, an automatic depositing and paying machine (ATM), and a television receiver, but is not limited thereto.
上記の実施形態では、スマートフォン1は、第2表示領域62を、第1表示領域61の右側又は下側に配置する場合について説明したが、第2表示領域62の配置はこれに限定されない。スマートフォン1は、例えば、第2表示領域62を、第1表示領域61の上側、左側、操作位置の近傍等に配置してもよい。
In the above embodiment, the
上記の実施形態では、スマートフォン1は、第2表示領域62が画面60における第1表示領域61以外の表示領域である場合について説明したが、これに限定されない。例えば、スマートフォン1は、第1表示領域61を画面60の表示領域全体とし、第2表示領域62を画面60の一部に重ねて表示する他の画面となるように構成されてもよい。
In the above embodiment, the
画面60の第1表示領域61に初めて第1画像を表示させる際に、第2表示領域62に何を表示させるか、又は何も表示させないかは、適宜変更してもよい。例えば、第1表示領域61に初めて第1画像を表示させる際には、第1表示領域61及び第2表示領域62を1つの表示領域として扱って、これらを跨いで第1画像を表示し、第1表示領域61での所定の操作を検出した場合に、操作を検出した位置に関する情報を第2表示領域62にしてもよい。あるいは、第1表示領域61に初めて第1画像を表示させる際には、第2表示領域62にはなにも表示せず、第1表示領域61での所定の操作を検出した場合に、操作を検出した位置に関する情報を第2表示領域62にしてもよい。
When the first image is displayed for the first time in the
添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成を具現化するように構成されるべきである。 The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be configured to embody such a configuration.
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B 地図アプリケーション
9C ブラウザアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12、13 カメラ
14 コネクタ
15 加速度センサ
16 方位センサ
17 ジャイロスコープ
20 ハウジング
DESCRIPTION OF
Claims (13)
前記第1表示領域に第1画像を表示させるとともに、当該第1表示領域において操作を検出した位置の近傍を拡大又は縮小した情報を前記第2表示領域に表示させるコントローラと
を備え、
前記コントローラは、前記第1表示領域に対するピンチ操作を検出した場合に、検出した前記ピンチ操作の操作量が予め設定された閾値に到達していない場合、前記第1表示領域に表示させている前記第1画像の表示サイズを維持したままで、前記情報を拡大又は縮小させ、検出した前記操作量が前記閾値に到達した場合、前記第1表示領域に表示させている第1画像の倍率を、前記操作量に応じて変更するように制御する電子機器。 A touch screen display for displaying a screen having a first display area and a second display area;
A controller that displays a first image in the first display area, and displays information obtained by enlarging or reducing the vicinity of a position where an operation is detected in the first display area in the second display area ,
When the controller detects a pinch operation on the first display area and the detected operation amount of the pinch operation has not reached a preset threshold, the controller displays the first display area on the first display area. While maintaining the display size of the first image, the information is enlarged or reduced, and when the detected operation amount reaches the threshold, the magnification of the first image displayed in the first display area is set as follows: electronic device that controls so as to change in response to the operation amount.
前記コントローラは、前記操作を検出した前記位置の近傍に前記第1オブジェクトが存在する場合、前記第1オブジェクトに関する情報を前記第2表示領域に表示させる請求項1に記載の電子機器。 The first image has a first object for displaying another image,
2. The electronic device according to claim 1 , wherein the controller displays information on the first object in the second display area when the first object is present in the vicinity of the position where the operation is detected.
前記コントローラは、近づけた前記物体と前記タッチスクリーンディスプレイとの距離に応じた倍率で前記情報を前記第2表示領域に表示させる請求項1に記載の電子機器。 The operation is an operation of bringing an object closer to the first display area,
The electronic device according to claim 1 , wherein the controller displays the information on the second display area at a magnification according to a distance between the object that is brought close to the touch screen display.
前記コントローラは、前記情報を前記第2表示領域に表示させている場合に、前記第1表示領域に対するスクロール操作を検出すると、検出した前記スクロール操作に応じた第1速度で前記第1表示領域をスクロールさせ、前記第1速度とは異なる第2速度で前記第2表示領域をスクロールさせる請求項1に記載の電子機器。 The first display area and the second display area are scrollable display areas,
When the controller detects the scroll operation for the first display area when the information is displayed in the second display area, the controller displays the first display area at a first speed corresponding to the detected scroll operation. is scrolled, the electronic device according to claim 1 for scrolling the second display area different from the second speed to the first speed.
第1表示領域と第2表示領域とを有する画面を前記タッチスクリーンディスプレイに表示させるステップと、
前記第1表示領域に第1画像を表示させるステップと、
前記第1表示領域において操作を検出した位置の近傍を拡大又は縮小した情報を前記第2表示領域に表示させるステップと、
前記第1表示領域に対するピンチ操作を検出するステップと、
検出した前記ピンチ操作の操作量が予め設定された閾値に到達していない場合、前記第1表示領域に表示させている前記第1画像の表示サイズを維持したままで、前記情報を拡大又は縮小させ、検出した前記操作量が前記閾値に到達した場合、前記第1表示領域に表示させている第1画像の倍率を、前記操作量に応じて変更するように制御するステップと
を含む制御方法。 A method for controlling an electronic device having a touch screen display,
Displaying a screen having a first display area and a second display area on the touch screen display;
Displaying a first image in the first display area;
Displaying in the second display area information obtained by enlarging or reducing the vicinity of the position where the operation is detected in the first display area ;
Detecting a pinch operation on the first display area;
When the detected operation amount of the pinch operation does not reach a preset threshold value, the information is enlarged or reduced while maintaining the display size of the first image displayed in the first display area. And, when the detected operation amount reaches the threshold value, controlling to change the magnification of the first image displayed in the first display area according to the operation amount. .
第1表示領域と第2表示領域とを有する画面を前記タッチスクリーンディスプレイに表示させるステップと、
前記第1表示領域に第1画像を表示させるステップと、
前記第1表示領域において操作を検出した位置の近傍を拡大又は縮小した情報を前記第2表示領域に表示させるステップと、
前記第1表示領域に対するピンチ操作を検出するステップと、
検出した前記ピンチ操作の操作量が予め設定された閾値に到達していない場合、前記第1表示領域に表示させている前記第1画像の表示サイズを維持したままで、前記情報を拡大又は縮小させ、検出した前記操作量が前記閾値に到達した場合、前記第1表示領域に表示させている第1画像の倍率を、前記操作量に応じて変更するように制御するステップと
を実行させる制御プログラム。 For electronic devices with touch screen displays,
Displaying a screen having a first display area and a second display area on the touch screen display;
Displaying a first image in the first display area;
Displaying in the second display area information obtained by enlarging or reducing the vicinity of the position where the operation is detected in the first display area ;
Detecting a pinch operation on the first display area;
When the detected operation amount of the pinch operation does not reach a preset threshold value, the information is enlarged or reduced while maintaining the display size of the first image displayed in the first display area. And, when the detected operation amount reaches the threshold value, a step of executing a step of controlling the magnification of the first image displayed in the first display area to be changed according to the operation amount. program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013246511A JP6096100B2 (en) | 2013-11-28 | 2013-11-28 | Electronic device, control method, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013246511A JP6096100B2 (en) | 2013-11-28 | 2013-11-28 | Electronic device, control method, and control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015106181A JP2015106181A (en) | 2015-06-08 |
JP6096100B2 true JP6096100B2 (en) | 2017-03-15 |
Family
ID=53436278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013246511A Active JP6096100B2 (en) | 2013-11-28 | 2013-11-28 | Electronic device, control method, and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6096100B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018004061A1 (en) * | 2016-06-29 | 2018-01-04 | 정상문 | Method for touch control in mobile real-time simulation game |
JP2018055623A (en) * | 2016-09-30 | 2018-04-05 | ブラザー工業株式会社 | Display input device and storage medium |
JP6780484B2 (en) * | 2016-12-13 | 2020-11-04 | カシオ計算機株式会社 | Information processing equipment and programs |
JP6780483B2 (en) * | 2016-12-13 | 2020-11-04 | カシオ計算機株式会社 | Information processing equipment and programs |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3560500B2 (en) * | 1999-06-04 | 2004-09-02 | 富士通テン株式会社 | Navigation device |
JP4481289B2 (en) * | 2006-11-14 | 2010-06-16 | 株式会社コナミデジタルエンタテインメント | Item selection device, item selection method, and program |
JP5001182B2 (en) * | 2008-01-10 | 2012-08-15 | パナソニック株式会社 | Display control apparatus, electronic device, display control method, and program |
JP5554972B2 (en) * | 2009-11-30 | 2014-07-23 | 株式会社 ミックウェア | Map information processing apparatus, map information processing method, and program |
JP2011253468A (en) * | 2010-06-03 | 2011-12-15 | Aisin Aw Co Ltd | Display device, display method and display program |
JP2012094008A (en) * | 2010-10-27 | 2012-05-17 | Kyocera Corp | Portable electronic equipment |
JP5828800B2 (en) * | 2012-04-23 | 2015-12-09 | パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America | Display device, display control method, and program |
JP2013050972A (en) * | 2012-10-22 | 2013-03-14 | Seiko Epson Corp | Portable information apparatus, electronic book and program |
-
2013
- 2013-11-28 JP JP2013246511A patent/JP6096100B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015106181A (en) | 2015-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6159078B2 (en) | Apparatus, method, and program | |
JP6110654B2 (en) | Apparatus, method, and program | |
JP5850736B2 (en) | Apparatus, method, and program | |
JP5805588B2 (en) | Electronic device, control method, and control program | |
JP5762944B2 (en) | Apparatus, method, and program | |
JP5775445B2 (en) | Apparatus, method, and program | |
JP5805685B2 (en) | Electronic device, control method, and control program | |
JP2013131185A (en) | Device, method and program | |
JP2013084233A (en) | Device, method, and program | |
JP2013047919A (en) | Device, method, and program | |
JP2013092989A (en) | Device, method, and program | |
JP6058790B2 (en) | Apparatus, method, and program | |
JP5858896B2 (en) | Electronic device, control method, and control program | |
JP2013131193A (en) | Device, method, and program | |
JP2014071724A (en) | Electronic apparatus, control method, and control program | |
JP5801673B2 (en) | Electronic apparatus, method, and program | |
JP6096100B2 (en) | Electronic device, control method, and control program | |
JP2013084237A (en) | Device, method, and program | |
JP5762885B2 (en) | Apparatus, method, and program | |
JP5775432B2 (en) | Apparatus, method, and program | |
JP2013065290A (en) | Device, method, and program | |
JP6080355B2 (en) | Apparatus, method, and program | |
JP5959372B2 (en) | Apparatus, method, and program | |
JP2013101547A (en) | Device, method, and program | |
JP5740366B2 (en) | Apparatus, method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161026 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161101 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170215 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6096100 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |