JP6152334B2 - Electronic device, control method, and control program - Google Patents
Electronic device, control method, and control program Download PDFInfo
- Publication number
- JP6152334B2 JP6152334B2 JP2013243809A JP2013243809A JP6152334B2 JP 6152334 B2 JP6152334 B2 JP 6152334B2 JP 2013243809 A JP2013243809 A JP 2013243809A JP 2013243809 A JP2013243809 A JP 2013243809A JP 6152334 B2 JP6152334 B2 JP 6152334B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- touch screen
- displayed
- display
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本出願は、電子機器、制御方法、及び制御プログラムに関する。 The present application relates to an electronic device, a control method, and a control program.
タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、携帯電話、スマートフォン及びタブレットなどの電子機器を含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。
Touch screen devices comprising a touch screen are known. Examples of touch screen devices include, but are not limited to, electronic devices such as mobile phones, smartphones, and tablets. The touch screen device detects a finger, pen, or stylus pen gesture via the touch screen. The touch screen device operates according to the detected gesture. An example of the operation according to the detected gesture is described in
タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。 The basic operation of the touch screen device is realized by an OS (Operating System) installed in the device. Examples of the OS installed in the touch screen device include, but are not limited to, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, and Windows (registered trademark) Phone.
近年、上記電子機器の中には、表示領域の縦横比を従来製品とは異なる寸法に変更するものが普及しはじめている。 In recent years, among the above-mentioned electronic devices, those that change the aspect ratio of the display area to a size different from that of the conventional product are becoming popular.
表示領域の縦横比を変更するなどの製品開発の動向に応じて、できるだけ利用者の操作の利便性を向上させる必要性がある。 There is a need to improve the convenience of user operations as much as possible according to the development trend of products such as changing the aspect ratio of the display area.
1つの態様に係る電子機器は、第1の画像が表示されている第1の領域と、前記第1の画像及び第2の画像が重畳表示されている第2の領域とを含むタッチスクリーンディスプレイと、前記タッチスクリーンを介して前記第1の領域で受け付けたタッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示するコントローラとを有する。 An electronic device according to one aspect includes a touch screen display including a first area in which a first image is displayed and a second area in which the first image and the second image are superimposed and displayed. And a controller that transmits the second image and displays the first image when a touch operation received in the first region via the touch screen approaches the second region. Have.
1つの態様に係る制御方法は、第1の画像が表示されている第1の領域と、前記第1の画像及び第2の画像が重畳表示されている第2の領域とを含むタッチスクリーンディスプレイを有する電子機器によって実行される制御方法であって、前記タッチスクリーンを介して前記第1の領域に対するタッチ操作を受け付けるステップと、前記タッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示するステップとを含む。 A control method according to one aspect includes a first area in which a first image is displayed and a second area in which the first image and the second image are superimposed and displayed. A step of receiving a touch operation on the first area via the touch screen; and when the touch operation approaches the second area, And displaying the first image through two images.
1つの態様に係る制御プログラムは、第1の画像が表示されている第1の領域と、前記第1の画像及び第2の画像が重畳表示されている第2の領域とを含むタッチスクリーンディスプレイを有する電子機器に、前記タッチスクリーンを介して前記第1の領域に対するタッチ操作を受け付けるステップと、前記タッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示するステップとを実行させる。 A control program according to one aspect includes a first area in which a first image is displayed and a second area in which the first image and the second image are superimposed and displayed. A step of accepting a touch operation on the first area via the touch screen to an electronic device having the above, and transmitting the second image when the touch operation approaches the second area. Displaying the first image.
本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、本発明に係る電子機器の一例として、スマートフォンについて説明する。 Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of the electronic device which concerns on this invention.
(実施形態)
本実施形態に係るスマートフォン1の機能構成の一例を説明する。図1は、本実施形態に係るスマートフォンの機能構成を示すブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがある。さらに、重複する説明は省略することがある。
(Embodiment)
An example of a functional configuration of the
図1に示すように、スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18とを備える。
As shown in FIG. 1, the
タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重ねて配置されてもよいし、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。
The
ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。ディスプレイ2Aが表示する文字、画像、記号、及び図形等を含む画面には、ロック画面と呼ばれる画面、ホーム画面と呼ばれる画面、アプリケーションの実行中に表示されるアプリケーション画面が含まれる。ホーム画面は、デスクトップ、待受画面、アイドル画面、標準画面、アプリ一覧画面又はランチャー画面と呼ばれることもある。 The display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2A displays characters, images, symbols, graphics, and the like. The screen including characters, images, symbols, graphics, and the like displayed on the display 2A includes a screen called a lock screen, a screen called a home screen, and an application screen displayed during execution of the application. The home screen may be called a desktop, a standby screen, an idle screen, a standard screen, an application list screen, or a launcher screen.
本実施形態において、ディスプレイ2Aには、ホーム画面などの画像が表示されるとともに、ホーム画面などの画像と各種アプリケーションに対応する画像が重畳表示される。以下の説明において、ホーム画面などの画像を第1の画像と表記し、第1の画像が表示されるディスプレイ2A(タッチスクリーンディスプレイ2)における領域を第1の領域を表記し、各種アプリケーションに対応する画像を第2の画像と表記し、第1の画像と第2の画像とが重畳表示されるディスプレイ2A(タッチスクリーンディスプレイ2)における領域を第2の領域と表記する。 In the present embodiment, an image such as a home screen is displayed on the display 2A, and an image such as a home screen and an image corresponding to various applications are superimposed and displayed. In the following description, an image such as a home screen is referred to as a first image, an area on the display 2A (touch screen display 2) on which the first image is displayed is referred to as a first area, and corresponds to various applications. An image to be displayed is referred to as a second image, and an area in the display 2A (touch screen display 2) on which the first image and the second image are superimposed and displayed is referred to as a second area.
タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等(以下、単に「指」という)がタッチスクリーン2Bに接触した位置を検出することができる。タッチスクリーン2Bは、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する指の接触を、接触された場所のタッチスクリーンディスプレイ2上での位置とともに、コントローラ10に通知する。実施形態1において、タッチスクリーン2Bは、ディスプレイ2Aに表示される文字入力画面に対する指の接触、及び文字入力画面上での位置を、コントローラ10に通知する。
The touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with respect to the touch screen 2B. The touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen or the like (hereinafter simply referred to as “finger”) contacts the touch screen 2B. The touch screen 2B notifies the controller 10 of the contact of the finger with the touch screen 2B (touch screen display 2) together with the position on the
タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。
The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. In the following description, in order to simplify the description, it is assumed that the user uses the finger to touch the touch screen 2B in order to operate the
コントローラ10(スマートフォン1)は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。ジェスチャは、指を用いて、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対して行われる操作である。コントローラ10(スマートフォン1)が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるが、これらに限定されない。 The controller 10 (smart phone 1) has at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. The type of gesture is determined based on the one. The gesture is an operation performed on the touch screen 2B (touch screen display 2) using a finger. The gestures that the controller 10 (smart phone 1) determines via the touch screen 2B include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. However, it is not limited to these.
ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。
The
照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。
The
近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2Aが顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。
The
通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。
The
通信ユニット6は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。スマートフォン1は、GPS衛星との通信機能を通信ユニット6から分散させて、通信ユニット6から独立した個別の通信部を設けてもよい。
The
レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。 The receiver 7 is a sound output unit. The receiver 7 outputs the sound signal transmitted from the controller 10 as sound. The receiver 7 is used, for example, to output the other party's voice during a call. The microphone 8 is a sound input unit. The microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.
ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。
The
ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2Aに画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。
The programs stored in the
ストレージ9は、制御プログラム9A、通話アプリケーション9B、メールアプリケーション9C、ブラウザアプリケーション9D、カメラアプリケーション9E、音声入力アプリケーション9F、ソフトウェアキーアプリケーション9G、設定データ9Zなどを記憶する。
The
制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。例えば、制御プログラム9Aは、タッチスクリーン2Bを介して第1の領域で受け付けたタッチ操作が第2の領域に近づいた場合に、第2の画像を透過させて第1の画像を表示するための機能を提供する。
The
その他、制御プログラム9Aは、通信ユニット6などを制御することによって、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)などを用いた通信を実現させるための機能、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等を用いた近距離無線通信を実現させるための機能、並びに、通信ユニット6及びマイク8などを制御することによって、通話を実現させるための機能を提供する。
In addition, the
制御プログラム9Aにより提供される機能は、通話を実現させる場合、通話アプリケーション9B又はメールアプリケーション9Cなど、ストレージ9に記憶される他のプログラムなどが提供する機能と組み合わせて利用されることがある。制御プログラム9Aにより提供される機能は、複数のプログラムモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。
The functions provided by the
通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。メールアプリケーション9Cは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Dは、WEBページを表示するためのWEBブラウジング機能を提供する。カメラアプリケーション9Eは、画像および動画像の撮影、編集および管理などを行うための機能を提供する。音声入力アプリケーション9Fは、マイクにより入力される音声を認識し、認識結果に基づいて処理を実行するための機能を提供する。ソフトウェアキーアプリケーション9Gは、ソウトウェアキーをディスプレイ2Aに表示させて、ソフトウェアキーを介して文字入力を受け付けるための機能を提供する。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。本実施形態において、設定データ9Zは、例えば、ホーム画面に表示させる画像に対応するアプリケーションの設定などを記憶する。ストレージ9に記憶されるアプリケーションは一例に過ぎない。図1に示すもの以外に、カレンダーアプリケーション、メモアプリケーション、ナビゲートアプリケーション、音楽プレイヤーアプリケーション、動画再生アプリケーション、計算機アプリケーション、付箋アプリケーションなどが記憶されていてもよい。
The call application 9B provides a call function for a call by wireless communication. The
コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。
The controller 10 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto. The controller 10 controls various operations of the
具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、及び姿勢検出ユニット15を含むが、これらに限定されない。
Specifically, the controller 10 executes instructions included in the program stored in the
コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して第1の領域で受け付けたタッチ操作が第2の領域に近づいた場合に、第2の画像を透過させて第1の画像を表示する処理を実行する。
For example, by executing the
スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。
The
カメラ12は、撮影した画像を電気信号へ変換する。カメラ12には、例えば、ディスプレイ2Aに面している物体を撮影するインカメラ、ディスプレイ2Aの反対側の面に面している物体を撮影するアウトカメラが含まれる。
The
姿勢検出ユニット15は、スマートフォン1の姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。姿勢検出ユニット15は、例えば、加速度センサ、方位センサ、及びジャイロスコープなどの検出結果に基づいて、例えば、スマートフォン1の姿勢を検出する。
The
バイブレータ18は、スマートフォン1の一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。バイブレータ18による振動は、着信等の各種のイベントを利用者に報知するために用いられる。
The
続いて、図2を用いて、本実施形態に係るスマートフォン1により実行される制御の一例について説明する。図2は、本実施形態に係るスマートフォン1の制御の一例を示す図である。
Next, an example of control executed by the
図2に示すように、スマートフォン1は、第1の画像G1と、第1の画像G1に重畳表示される第2の画像G2を含むホーム画面をタッチスクリーンディスプレイ2に表示させる(ステップS11)。図3は、第1の画像の一例を示す図である。図3に示すように、第1の画像G1は、ホーム画面用に設定される壁紙の画像と、ホーム画面に配置設定される複数のアイコンの画像とで構成される。第2の画像は、例えば、音声入力アプリケーション9Fに対応するウィジェットの画像で構成される。
As illustrated in FIG. 2, the
続いて、スマートフォン1は、タッチスクリーン2Bを介して、第1の画像G1が表示されるタッチスクリーンディスプレイ2上の第1の領域A1に対するタッチ操作を検出すると、検出したタッチ操作が、第1の画像G1と第2の画像G2とが重畳表示される第2の領域A2に接近したかを判定する(ステップS12)。タッチ操作は、例えば、ロングタッチ、ドラッグなど、タッチスクリーンディスプレイ2から指が離れることのないタッチジェスチャに対応する。
Subsequently, when the
スマートフォン1は、判定の結果、タッチ操作が第2の領域A2に接近した場合には、第2の画像G2を透過させて、第1の画像G1を第2の領域A2に表示させる(ステップS13)。図2に示す例では、第2の画像G2が透過されることにより、第2の画像G2を通して、ホーム画面の画像及びホーム画面に配置されているアイコンの画像が視認可能な状態で表示される。
If the result of determination is that the touch operation has approached the second area A2, the
スマートフォン1は、リリースが検出された場合には、再び、ステップS11に示すホーム画面の表示に戻る。
When the release is detected, the
図4を用いて、本実施形態に係るスマートフォン1による処理の流れを説明する。図4は、本実施形態に係るスマートフォン1による処理の流れを示すフローチャートである。図4に示す処理は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することにより実現される。
The flow of processing by the
図4に示すように、コントローラ10は、第1の画像G1及び第1の画像G1に重畳される第2の画像G2を含むホーム画面をタッチスクリーンディスプレイ2に表示する(ステップS101)。 As shown in FIG. 4, the controller 10 displays a home screen including a first image G1 and a second image G2 superimposed on the first image G1 on the touch screen display 2 (step S101).
続いて、コントローラ10は、第1の画像G1を表示するタッチスクリーンディスプレイ上の第1の領域A1にタッチ操作が検出されたかを判定する(ステップS102)。 Subsequently, the controller 10 determines whether a touch operation is detected in the first area A1 on the touch screen display that displays the first image G1 (step S102).
コントローラ10は、判定の結果、第1の領域A1にタッチ操作が検出された場合には(ステップS102,Yes)、続いて、検出されたタッチ操作がタッチスクリーンディスプレイ2上の第2の領域A2に接近したかを判定する(ステップS103)。
When the touch operation is detected in the first area A1 as a result of the determination (step S102, Yes), the controller 10 subsequently detects that the detected touch operation is the second area A2 on the
コントローラ10は、判定の結果、タッチ操作が第2の領域A2に接近した場合には(ステップS103,Yes)、第2の領域A2において第2の領域A2に表示される第2の画像G2を透過させることにより第1の画像G1を表示する(ステップS104)。 As a result of the determination, when the touch operation has approached the second area A2 (Yes in step S103), the controller 10 displays the second image G2 displayed in the second area A2 in the second area A2. By transmitting the first image G1, the first image G1 is displayed (step S104).
続いて、コントローラ10は、タッチ操作が終了したか(リリースが検出されたか)を判定する(ステップS105)。 Subsequently, the controller 10 determines whether the touch operation has been completed (whether release has been detected) (step S105).
コントローラ10は、判定の結果、タッチ操作が終了した場合には(ステップS105,Yes)、ステップS101と同じホーム画面をタッチスクリーンディスプレイ2に再表示して(ステップS106)、図4に示す処理を終了する。すなわち、コントローラ10は、第1の画像G1に重畳表示された第2画像G2を透過させていないホーム画面の表示に戻す。 When the touch operation is completed as a result of the determination (Yes in step S105), the controller 10 redisplays the same home screen as that in step S101 on the touch screen display 2 (step S106), and performs the processing shown in FIG. finish. That is, the controller 10 returns to the display of the home screen that does not transmit the second image G2 superimposed and displayed on the first image G1.
上記ステップS103において、コントローラ10は、判定の結果、タッチ操作が第2の領域A2に接近しない場合には(ステップS103,No)、続いて、タッチ操作が終了したか(リリースが検出されたか)を判定する(ステップS107)。 In step S103, if the result of determination is that the touch operation does not approach the second area A2 (step S103, No), then whether the touch operation has ended (whether release has been detected). Is determined (step S107).
コントローラ10は、判定の結果、タッチ操作が終了した場合には(ステップS107,Yes)、図4に示す処理を終了する。これとは反対に、コントローラ10は、判定の結果、タッチ操作が終了していない場合には(ステップS107,No)、上記ステップS103の処理手順に戻る。 If the result of determination is that the touch operation has ended (step S107, Yes), the controller 10 ends the processing shown in FIG. On the contrary, if the result of determination is that the touch operation has not ended (No at step S107), the controller 10 returns to the processing procedure at step S103.
上記ステップS102において、コントローラ10は、判定の結果、第1の領域A1にタッチ操作が検出されない場合には(ステップS102,No)、図4に示す処理を終了する。 In step S102, if the result of determination is that a touch operation is not detected in the first area A1 (step S102, No), the controller 10 ends the processing shown in FIG.
(その他の実施形態)
図5を用いて、スマートフォン1により実行される制御の他の例について説明する。図5は、スマートフォン1により実行される制御の他の例を示す図である。
(Other embodiments)
Another example of the control executed by the
図5に示すように、スマートフォン1は、オブジェクトQ1と、第1の画像G3と、第1の画像G3に重畳表示される第2の画像G4を含むホーム画面をタッチスクリーンディスプレイ2に表示させる(ステップS21)。オブジェクトQ1は、アプリケーションに対応するアイコンなどのオブジェクトである。第1の画像G3は、例えば、ホーム画面などに設定される壁紙である。第2の画像G4は、ソフトウェアキーアプリケーション9Gに対応する画像である。図5に示す例では、第1の画像G3に第2の画像G4が重畳されたホーム画面がタッチスクリーンディスプレイ2に表示されている。
As shown in FIG. 5, the
続いて、スマートフォン1は、オブジェクトQ1に対するタッチ及びドラッグを検出すると(ステップS22及びステップS23)、オブジェクトQ1が、第1の画像G3及び第2の画像G4が重畳表示される第2の領域A2に対して所定の距離まで接近したかを判定する。図5に示す例では、タッチ及びドラッグの操作が行われたオブジェクトQ1は、第1の画像G3のみが表示される第1の領域A1を移動している。
Subsequently, when the
スマートフォン1は、判定の結果、オブジェクトQ1が第2の領域A2に対して所定の距離まで接近した場合には、第2の画像G4の透過を開始する(ステップS24)。続いて、スマートフォン1は、オブジェクトQ1と第2の領域A2との距離が短くなるに従って、第2の画像を透過させる度合いを次第に強め、オブジェクトQ1と第2の画像G4との接触を検出した段階で、第2の画像G4を完全に透過させて、第1の画像G3を表示する(ステップS25)。図5に示す例では、透過させた第2の画像を通して、第1の画像G3上に配置されているゴミ箱のアイコンQ2が表示される。
As a result of the determination, the
スマートフォン1は、オブジェクトQ1と第1の画像G3上に配置されているゴミ箱のアイコンQ2との接触を検出すると(ステップS26)、オブジェクトQ1をホーム画面上から削除し、リリースの検出に応じて、再び、透過されていない第2の画像G4が第1の画像G3に重畳表示されたホーム画面を表示する(ステップS27)。
When the
上記実施形態では、スマートフォン1は、タッチスクリーンディスプレイ2上に、第1の画像と第2の画像とが重畳表示された第2の領域がある場合に、利用者のタッチ操作の位置が第2の領域に接近すると、第2の画像を透過させて第1の画像を表示する。このため、上記実施形態によれば、タッチスクリーンディスプレイ2上に、第1の画像と第2の画像とが重畳表示された第2の領域がある場合であっても、利用者の操作上の煩わしさを低減することができ、その結果、できるだけ利用者の操作の利便性を向上させることができる。
In the above embodiment, when the
上記の実施形態では、添付の請求項に係る装置の例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、タッチスクリーン機能を備える携帯電話、タブレットなどの電子機器であれば、スマートフォン以外の装置であってもよい。 In the above embodiment, a smartphone has been described as an example of an apparatus according to the appended claims, but the apparatus according to the appended claims is not limited to a smartphone. The device according to the appended claims may be a device other than a smartphone as long as it is an electronic device such as a mobile phone or a tablet having a touch screen function.
添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。 The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a possible configuration.
1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C メールアプリケーション
9D ブラウザアプリケーション
9E カメラアプリケーション
9F 音声入力アプリケーション
9G ソフトウェアキーアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
15 姿勢検出ユニット
18 バイブレータ
DESCRIPTION OF
Claims (3)
前記タッチスクリーンを介して前記第1の領域で受け付けた前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示させ、前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第1の画像上の第2のオブジェクトに接触すると、前記第1の画像上の第1のオブジェクトを該接触した第2のオブジェクトに応じて処理するコントローラと
を有する電子機器。 A touch screen including a first region in which the first image is displayed, and the first image and a second region where the second image is superimposed,
When a touch operation on the first object on the first image received in the first region via the touch screen approaches the second region, the second image is transmitted and the second image is transmitted. When the first image is displayed and a touch operation on the first object on the first image touches the second object on the first image, the first object on the first image is displayed. An electronic device comprising: a controller that performs processing according to the contacted second object .
前記タッチスクリーンを介して前記第1の領域の第1の画像上の第1のオブジェクトに対するタッチ操作を受け付けるステップと、
前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示させ、前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第1の画像上の第2のオブジェクトに接触すると、前記第1の画像上の第1のオブジェクトを該接触した第2のオブジェクトに応じて処理するステップと
を含む制御方法。 A first region in which the first image is being displayed, the control of the first image and the second image is performed by an electronic device having a touch screen and a second region being superimposed A method,
Receiving a touch operation on a first object on a first image of the first region via the touch screen;
When a touch operation on the first object on the first image approaches the second region, the second image is transmitted to display the first image, and the first image is displayed on the first image. When the touch operation on the first object touches the second object on the first image, the first object on the first image is processed according to the second object touched ; Control method.
前記タッチスクリーンを介して前記第1の領域の第1の画像上の第1のオブジェクトに対するタッチ操作を受け付けるステップと、
前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示させ、前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第1の画像上の第2のオブジェクトに接触すると、前記第1の画像上の第1のオブジェクトを該接触した第2のオブジェクトに応じて処理するステップと
を実行させる制御プログラム。 A first region in which the first image is being displayed, the control of the first image and the second image is performed by an electronic device having a touch screen and a second region being superimposed A method,
Receiving a touch operation on a first object on a first image of the first region via the touch screen;
When a touch operation on the first object on the first image approaches the second region, the second image is transmitted to display the first image, and the first image is displayed on the first image. When the touch operation on the first object touches the second object on the first image, the first object on the first image is processed according to the second object touched ; Control program to execute
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013243809A JP6152334B2 (en) | 2013-11-26 | 2013-11-26 | Electronic device, control method, and control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013243809A JP6152334B2 (en) | 2013-11-26 | 2013-11-26 | Electronic device, control method, and control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015103989A JP2015103989A (en) | 2015-06-04 |
JP6152334B2 true JP6152334B2 (en) | 2017-06-21 |
Family
ID=53379363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013243809A Active JP6152334B2 (en) | 2013-11-26 | 2013-11-26 | Electronic device, control method, and control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6152334B2 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006244078A (en) * | 2005-03-02 | 2006-09-14 | Canon Inc | Display control device and control method thereof |
JP5887847B2 (en) * | 2011-11-10 | 2016-03-16 | コニカミノルタ株式会社 | Operation display apparatus, image forming apparatus, control method, and control program |
-
2013
- 2013-11-26 JP JP2013243809A patent/JP6152334B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015103989A (en) | 2015-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6125811B2 (en) | Electronic device, control method, and control program | |
US20150249733A1 (en) | Electronic device, control method, and control program | |
JP6215128B2 (en) | Portable electronic device, control method and control program | |
JP6133564B2 (en) | Electronic device, control method, and control program | |
JP6199142B2 (en) | Portable electronic device, control method, and control program | |
JP6141352B2 (en) | Electronic equipment and control program | |
JP6243835B2 (en) | Portable electronic device and control method | |
JP6297847B2 (en) | Portable electronic device, display control method, and display control program | |
JP6139912B2 (en) | Portable electronic device, control method and control program | |
JP6152334B2 (en) | Electronic device, control method, and control program | |
JP2014068240A (en) | Electronic device, control method, and control program | |
JP2017022535A (en) | Electronic apparatus, control method, and control program | |
JP2017050632A (en) | Electronic apparatus, control method, and control program | |
US20150229802A1 (en) | Electronic device, control method, and control program | |
JP6087685B2 (en) | Portable electronic device, control method and control program | |
JP6399944B2 (en) | Electronic device, control method, and control program | |
US10447640B2 (en) | Communication device, control method, and control program | |
JP5763117B2 (en) | Portable electronic device, control method and control program | |
JP2014225798A (en) | Electronic apparatus, control method and control program | |
JP2016157346A (en) | Electronic apparatus, control method, and control program | |
JP2016197441A (en) | Electronic apparatus, control method, and control program | |
JP5583713B2 (en) | COMMUNICATION DEVICE, COMMUNICATION METHOD, AND COMMUNICATION PROGRAM | |
JP2013207798A (en) | Communication device, communication method, and communication program | |
JP2017195443A (en) | Portable apparatus, control method, and control program | |
JP2019041219A (en) | Portable terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160216 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161206 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6152334 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |