JP6152334B2 - Electronic device, control method, and control program - Google Patents

Electronic device, control method, and control program Download PDF

Info

Publication number
JP6152334B2
JP6152334B2 JP2013243809A JP2013243809A JP6152334B2 JP 6152334 B2 JP6152334 B2 JP 6152334B2 JP 2013243809 A JP2013243809 A JP 2013243809A JP 2013243809 A JP2013243809 A JP 2013243809A JP 6152334 B2 JP6152334 B2 JP 6152334B2
Authority
JP
Japan
Prior art keywords
image
touch screen
displayed
display
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013243809A
Other languages
Japanese (ja)
Other versions
JP2015103989A (en
Inventor
長谷川 純一
純一 長谷川
那由 能町
那由 能町
須藤 智浩
智浩 須藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2013243809A priority Critical patent/JP6152334B2/en
Publication of JP2015103989A publication Critical patent/JP2015103989A/en
Application granted granted Critical
Publication of JP6152334B2 publication Critical patent/JP6152334B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本出願は、電子機器、制御方法、及び制御プログラムに関する。   The present application relates to an electronic device, a control method, and a control program.

タッチスクリーンを備えるタッチスクリーンデバイスが知られている。タッチスクリーンデバイスは、例えば、携帯電話、スマートフォン及びタブレットなどの電子機器を含むが、これらに限定されない。タッチスクリーンデバイスは、タッチスクリーンを介して指、ペン、又はスタイラスペンのジェスチャを検出する。そして、タッチスクリーンデバイスは、検出したジェスチャに従って動作する。検出したジェスチャに従った動作の例は、例えば、特許文献1に記載されている。   Touch screen devices comprising a touch screen are known. Examples of touch screen devices include, but are not limited to, electronic devices such as mobile phones, smartphones, and tablets. The touch screen device detects a finger, pen, or stylus pen gesture via the touch screen. The touch screen device operates according to the detected gesture. An example of the operation according to the detected gesture is described in Patent Document 1, for example.

タッチスクリーンデバイスの基本的な動作は、デバイスに搭載されるOS(Operating System)によって実現される。タッチスクリーンデバイスに搭載されるOSは、例えば、Android(登録商標)、BlackBerry(登録商標) OS、iOS、Symbian(登録商標) OS、及びWindows(登録商標) Phoneを含むが、これらに限定されない。   The basic operation of the touch screen device is realized by an OS (Operating System) installed in the device. Examples of the OS installed in the touch screen device include, but are not limited to, Android (registered trademark), BlackBerry (registered trademark) OS, iOS, Symbian (registered trademark) OS, and Windows (registered trademark) Phone.

近年、上記電子機器の中には、表示領域の縦横比を従来製品とは異なる寸法に変更するものが普及しはじめている。   In recent years, among the above-mentioned electronic devices, those that change the aspect ratio of the display area to a size different from that of the conventional product are becoming popular.

国際公開第2008/086302号International Publication No. 2008/086302

表示領域の縦横比を変更するなどの製品開発の動向に応じて、できるだけ利用者の操作の利便性を向上させる必要性がある。   There is a need to improve the convenience of user operations as much as possible according to the development trend of products such as changing the aspect ratio of the display area.

1つの態様に係る電子機器は、第1の画像が表示されている第1の領域と、前記第1の画像及び第2の画像が重畳表示されている第2の領域とを含むタッチスクリーンディスプレイと、前記タッチスクリーンを介して前記第1の領域で受け付けたタッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示するコントローラとを有する。   An electronic device according to one aspect includes a touch screen display including a first area in which a first image is displayed and a second area in which the first image and the second image are superimposed and displayed. And a controller that transmits the second image and displays the first image when a touch operation received in the first region via the touch screen approaches the second region. Have.

1つの態様に係る制御方法は、第1の画像が表示されている第1の領域と、前記第1の画像及び第2の画像が重畳表示されている第2の領域とを含むタッチスクリーンディスプレイを有する電子機器によって実行される制御方法であって、前記タッチスクリーンを介して前記第1の領域に対するタッチ操作を受け付けるステップと、前記タッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示するステップとを含む。   A control method according to one aspect includes a first area in which a first image is displayed and a second area in which the first image and the second image are superimposed and displayed. A step of receiving a touch operation on the first area via the touch screen; and when the touch operation approaches the second area, And displaying the first image through two images.

1つの態様に係る制御プログラムは、第1の画像が表示されている第1の領域と、前記第1の画像及び第2の画像が重畳表示されている第2の領域とを含むタッチスクリーンディスプレイを有する電子機器に、前記タッチスクリーンを介して前記第1の領域に対するタッチ操作を受け付けるステップと、前記タッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示するステップとを実行させる。   A control program according to one aspect includes a first area in which a first image is displayed and a second area in which the first image and the second image are superimposed and displayed. A step of accepting a touch operation on the first area via the touch screen to an electronic device having the above, and transmitting the second image when the touch operation approaches the second area. Displaying the first image.

図1は、本実施形態に係るスマートフォンの機能構成を示すブロック図である。FIG. 1 is a block diagram illustrating a functional configuration of the smartphone according to the present embodiment. 図2は、本実施形態に係るスマートフォンの制御の一例を示す図である。FIG. 2 is a diagram illustrating an example of control of the smartphone according to the present embodiment. 図3は、第1の画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of the first image. 図4は、本実施形態に係るスマートフォンによる処理の流れを示すフローチャートである。FIG. 4 is a flowchart showing the flow of processing by the smartphone according to the present embodiment. 図5は、スマートフォンにより実行される制御の他の例を示す図である。FIG. 5 is a diagram illustrating another example of the control executed by the smartphone.

本発明を実施するための実施形態を、図面を参照しつつ詳細に説明する。以下では、本発明に係る電子機器の一例として、スマートフォンについて説明する。   Embodiments for carrying out the present invention will be described in detail with reference to the drawings. Below, a smart phone is demonstrated as an example of the electronic device which concerns on this invention.

(実施形態)
本実施形態に係るスマートフォン1の機能構成の一例を説明する。図1は、本実施形態に係るスマートフォンの機能構成を示すブロック図である。以下の説明においては、同様の構成要素に同一の符号を付すことがある。さらに、重複する説明は省略することがある。
(Embodiment)
An example of a functional configuration of the smartphone 1 according to the present embodiment will be described. FIG. 1 is a block diagram illustrating a functional configuration of the smartphone according to the present embodiment. In the following description, the same code | symbol may be attached | subjected to the same component. Furthermore, duplicate descriptions may be omitted.

図1に示すように、スマートフォン1は、タッチスクリーンディスプレイ2と、ボタン3と、照度センサ4と、近接センサ5と、通信ユニット6と、レシーバ7と、マイク8と、ストレージ9と、コントローラ10と、スピーカ11と、カメラ12と、姿勢検出ユニット15と、バイブレータ18とを備える。   As shown in FIG. 1, the smartphone 1 includes a touch screen display 2, a button 3, an illuminance sensor 4, a proximity sensor 5, a communication unit 6, a receiver 7, a microphone 8, a storage 9, and a controller 10. A speaker 11, a camera 12, a posture detection unit 15, and a vibrator 18.

タッチスクリーンディスプレイ2は、ディスプレイ2Aと、タッチスクリーン2Bとを有する。ディスプレイ2A及びタッチスクリーン2Bは、例えば、重ねて配置されてもよいし、並べて配置されてもよいし、離して配置されてもよい。ディスプレイ2Aとタッチスクリーン2Bとが重ねて配置される場合、例えば、ディスプレイ2Aの1ないし複数の辺がタッチスクリーン2Bのいずれの辺とも沿っていなくてもよい。   The touch screen display 2 includes a display 2A and a touch screen 2B. The display 2 </ b> A and the touch screen 2 </ b> B may be arranged, for example, may be arranged side by side, or may be arranged apart from each other. When the display 2A and the touch screen 2B are arranged so as to overlap each other, for example, one or more sides of the display 2A may not be along any side of the touch screen 2B.

ディスプレイ2Aは、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro−Luminescence Display)、又は無機ELディスプレイ(IELD:Inorganic Electro−Luminescence Display)等の表示デバイスを備える。ディスプレイ2Aは、文字、画像、記号、及び図形等を表示する。ディスプレイ2Aが表示する文字、画像、記号、及び図形等を含む画面には、ロック画面と呼ばれる画面、ホーム画面と呼ばれる画面、アプリケーションの実行中に表示されるアプリケーション画面が含まれる。ホーム画面は、デスクトップ、待受画面、アイドル画面、標準画面、アプリ一覧画面又はランチャー画面と呼ばれることもある。   The display 2A includes a liquid crystal display (LCD: Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), or an inorganic EL display (IELD: Inorganic Electro-Luminescence Display). The display 2A displays characters, images, symbols, graphics, and the like. The screen including characters, images, symbols, graphics, and the like displayed on the display 2A includes a screen called a lock screen, a screen called a home screen, and an application screen displayed during execution of the application. The home screen may be called a desktop, a standby screen, an idle screen, a standard screen, an application list screen, or a launcher screen.

本実施形態において、ディスプレイ2Aには、ホーム画面などの画像が表示されるとともに、ホーム画面などの画像と各種アプリケーションに対応する画像が重畳表示される。以下の説明において、ホーム画面などの画像を第1の画像と表記し、第1の画像が表示されるディスプレイ2A(タッチスクリーンディスプレイ2)における領域を第1の領域を表記し、各種アプリケーションに対応する画像を第2の画像と表記し、第1の画像と第2の画像とが重畳表示されるディスプレイ2A(タッチスクリーンディスプレイ2)における領域を第2の領域と表記する。   In the present embodiment, an image such as a home screen is displayed on the display 2A, and an image such as a home screen and an image corresponding to various applications are superimposed and displayed. In the following description, an image such as a home screen is referred to as a first image, an area on the display 2A (touch screen display 2) on which the first image is displayed is referred to as a first area, and corresponds to various applications. An image to be displayed is referred to as a second image, and an area in the display 2A (touch screen display 2) on which the first image and the second image are superimposed and displayed is referred to as a second area.

タッチスクリーン2Bは、タッチスクリーン2Bに対する指、ペン、又はスタイラスペン等の接触を検出する。タッチスクリーン2Bは、複数の指、ペン、又はスタイラスペン等(以下、単に「指」という)がタッチスクリーン2Bに接触した位置を検出することができる。タッチスクリーン2Bは、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対する指の接触を、接触された場所のタッチスクリーンディスプレイ2上での位置とともに、コントローラ10に通知する。実施形態1において、タッチスクリーン2Bは、ディスプレイ2Aに表示される文字入力画面に対する指の接触、及び文字入力画面上での位置を、コントローラ10に通知する。   The touch screen 2B detects contact of a finger, a pen, a stylus pen, or the like with respect to the touch screen 2B. The touch screen 2B can detect a position where a plurality of fingers, a pen, a stylus pen or the like (hereinafter simply referred to as “finger”) contacts the touch screen 2B. The touch screen 2B notifies the controller 10 of the contact of the finger with the touch screen 2B (touch screen display 2) together with the position on the touch screen display 2 of the touched location. In the first embodiment, the touch screen 2B notifies the controller 10 of the finger contact with the character input screen displayed on the display 2A and the position on the character input screen.

タッチスクリーン2Bの検出方式は、静電容量方式、抵抗膜方式、表面弾性波方式(又は超音波方式)、赤外線方式、電磁誘導方式、及び荷重検出方式等の任意の方式でよい。以下の説明では、説明を簡単にするため、利用者はスマートフォン1を操作するために指を用いてタッチスクリーン2Bに接触するものと想定する。   The detection method of the touch screen 2B may be any method such as a capacitance method, a resistive film method, a surface acoustic wave method (or an ultrasonic method), an infrared method, an electromagnetic induction method, and a load detection method. In the following description, in order to simplify the description, it is assumed that the user uses the finger to touch the touch screen 2B in order to operate the smartphone 1.

コントローラ10(スマートフォン1)は、タッチスクリーン2Bにより検出された接触、接触が検出された位置、接触が検出された位置の変化、接触が検出された間隔、及び接触が検出された回数の少なくとも1つに基づいて、ジェスチャの種別を判別する。ジェスチャは、指を用いて、タッチスクリーン2B(タッチスクリーンディスプレイ2)に対して行われる操作である。コントローラ10(スマートフォン1)が、タッチスクリーン2Bを介して判別するジェスチャには、例えば、タッチ、ロングタッチ、リリース、スワイプ、タップ、ダブルタップ、ロングタップ、ドラッグ、フリック、ピンチイン、及びピンチアウトが含まれるが、これらに限定されない。   The controller 10 (smart phone 1) has at least one of the contact detected by the touch screen 2B, the position at which the contact is detected, the change in the position at which the contact is detected, the interval at which the contact is detected, and the number of times the contact is detected. The type of gesture is determined based on the one. The gesture is an operation performed on the touch screen 2B (touch screen display 2) using a finger. The gestures that the controller 10 (smart phone 1) determines via the touch screen 2B include, for example, touch, long touch, release, swipe, tap, double tap, long tap, drag, flick, pinch in, and pinch out. However, it is not limited to these.

ボタン3は、利用者からの操作入力を受け付ける。ボタン3の数は、単数であっても、複数であってもよい。   The button 3 receives an operation input from the user. The number of buttons 3 may be singular or plural.

照度センサ4は、スマートフォン1の周囲光の照度を検出する。照度は、光の強さ、明るさ、又は輝度を示す。照度センサ4は、例えば、ディスプレイ2Aの輝度の調整に用いられる。   The illuminance sensor 4 detects the illuminance of the ambient light of the smartphone 1. Illuminance indicates light intensity, brightness, or luminance. The illuminance sensor 4 is used for adjusting the luminance of the display 2A, for example.

近接センサ5は、近隣の物体の存在を非接触で検出する。近接センサ5は、磁界の変化又は超音波の反射波の帰還時間の変化等に基づいて物体の存在を検出する。近接センサ5は、例えば、ディスプレイ2Aが顔に近づけられたことを検出する。照度センサ4及び近接センサ5は、1つのセンサとして構成されていてもよい。照度センサ4は、近接センサとして用いられてもよい。   The proximity sensor 5 detects the presence of a nearby object without contact. The proximity sensor 5 detects the presence of an object based on a change in a magnetic field or a change in a feedback time of an ultrasonic reflected wave. For example, the proximity sensor 5 detects that the display 2A is brought close to the face. The illuminance sensor 4 and the proximity sensor 5 may be configured as one sensor. The illuminance sensor 4 may be used as a proximity sensor.

通信ユニット6は、無線により通信する。通信ユニット6によってサポートされる無線通信規格には、例えば、2G、3G、4G等のセルラーフォンの通信規格と、近距離無線の通信規格がある。セルラーフォンの通信規格としては、例えば、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)等がある。近距離無線の通信規格としては、例えば、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等がある。WPANの通信規格には、例えば、ZigBee(登録商標)がある。通信ユニット6は、上述した通信規格の1つ又は複数をサポートしていてもよい。   The communication unit 6 communicates wirelessly. The wireless communication standards supported by the communication unit 6 include, for example, cellular phone communication standards such as 2G, 3G, and 4G, and short-range wireless communication standards. Cellular phone communication standards include, for example, LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide PDA), WiMAX (Worldwide Interoperability Pc), WiMAX (Worldwide PDA). ) (Global System for Mobile Communications), PHS (Personal Handy-phone System), and the like. Examples of short-range wireless communication standards include IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and WPAN (Wireless Personal Area Network). As a communication standard of WPAN, for example, there is ZigBee (registered trademark). The communication unit 6 may support one or more of the communication standards described above.

通信ユニット6は、GPS衛星からの所定の周波数帯の電波信号を受信し、受信した電波信号の復調処理を行って、処理後の信号をコントローラ10に送出する。スマートフォン1は、GPS衛星との通信機能を通信ユニット6から分散させて、通信ユニット6から独立した個別の通信部を設けてもよい。   The communication unit 6 receives a radio signal in a predetermined frequency band from a GPS satellite, demodulates the received radio signal, and sends the processed signal to the controller 10. The smartphone 1 may disperse the communication function with the GPS satellite from the communication unit 6 and provide an individual communication unit independent from the communication unit 6.

レシーバ7は、音出力部である。レシーバ7は、コントローラ10から送信される音信号を音として出力する。レシーバ7は、例えば、通話時に相手の声を出力するために用いられる。マイク8は、音入力部である。マイク8は、利用者の音声等を音信号へ変換してコントローラ10へ送信する。   The receiver 7 is a sound output unit. The receiver 7 outputs the sound signal transmitted from the controller 10 as sound. The receiver 7 is used, for example, to output the other party's voice during a call. The microphone 8 is a sound input unit. The microphone 8 converts the user's voice or the like into a sound signal and transmits the sound signal to the controller 10.

ストレージ9は、プログラム及びデータを記憶する。ストレージ9は、コントローラ10の処理結果を一時的に記憶する作業領域としても利用される。ストレージ9は、半導体記憶媒体、及び磁気記憶媒体等の任意の非一過的(non−transitory)な記憶媒体を含んでよい。ストレージ9は、複数の種類の記憶媒体を含んでよい。ストレージ9は、メモリカード、光ディスク、又は光磁気ディスク等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。ストレージ9は、RAM(Random Access Memory)等の一時的な記憶領域として利用される記憶デバイスを含んでよい。   The storage 9 stores programs and data. The storage 9 is also used as a work area for temporarily storing the processing result of the controller 10. The storage 9 may include any non-transitory storage medium such as a semiconductor storage medium and a magnetic storage medium. The storage 9 may include a plurality of types of storage media. The storage 9 may include a combination of a portable storage medium such as a memory card, an optical disk, or a magneto-optical disk and a storage medium reader. The storage 9 may include a storage device used as a temporary storage area such as a RAM (Random Access Memory).

ストレージ9に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとが含まれる。フォアグランドで実行されるアプリケーションは、例えば、ディスプレイ2Aに画面が表示される。制御プログラムには、例えば、OSが含まれる。アプリケーション及び制御プログラムは、通信ユニット6による無線通信又は非一過的な記憶媒体を介してストレージ9にインストールされてもよい。   The programs stored in the storage 9 include an application executed in the foreground or the background and a control program that supports the operation of the application. An application executed in the foreground displays a screen on the display 2A, for example. The control program includes an OS, for example. The application and the control program may be installed in the storage 9 via wireless communication by the communication unit 6 or a non-transitory storage medium.

ストレージ9は、制御プログラム9A、通話アプリケーション9B、メールアプリケーション9C、ブラウザアプリケーション9D、カメラアプリケーション9E、音声入力アプリケーション9F、ソフトウェアキーアプリケーション9G、設定データ9Zなどを記憶する。   The storage 9 stores a control program 9A, a call application 9B, a mail application 9C, a browser application 9D, a camera application 9E, a voice input application 9F, a software key application 9G, setting data 9Z, and the like.

制御プログラム9Aは、スマートフォン1を稼働させるための各種制御に関する機能を提供する。例えば、制御プログラム9Aは、タッチスクリーン2Bを介して第1の領域で受け付けたタッチ操作が第2の領域に近づいた場合に、第2の画像を透過させて第1の画像を表示するための機能を提供する。   The control program 9A provides functions related to various controls for operating the smartphone 1. For example, when the touch operation received in the first area via the touch screen 2B approaches the second area, the control program 9A transmits the second image and displays the first image. Provide functionality.

その他、制御プログラム9Aは、通信ユニット6などを制御することによって、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、WiMAX(Worldwide Interoperability for Microwave Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile Communications)、PHS(Personal Handy−phone System)などを用いた通信を実現させるための機能、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)、WPAN(Wireless Personal Area Network)等を用いた近距離無線通信を実現させるための機能、並びに、通信ユニット6及びマイク8などを制御することによって、通話を実現させるための機能を提供する。   In addition, the control program 9A controls the communication unit 6 and the like, thereby enabling LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), WiMAX (Worldwide InterCirability), WiMAX (World Wide Pc). Cellular, GSM (registered trademark) (Global System for Mobile Communications), PHS (Personal Handy-phone System), etc., functions for realizing communication, IEEE802.11, Bluetooth (registered trademark), IrDA (registered trademark) A function for realizing short-range wireless communication using FRED Data Association (NFC), NFC (Near Field Communication), WPAN (Wireless Personal Area Network), and the like, and the communication unit 6 and the microphone 8 are controlled. Provides functions for realizing

制御プログラム9Aにより提供される機能は、通話を実現させる場合、通話アプリケーション9B又はメールアプリケーション9Cなど、ストレージ9に記憶される他のプログラムなどが提供する機能と組み合わせて利用されることがある。制御プログラム9Aにより提供される機能は、複数のプログラムモジュールに分割されていてもよいし、他のプログラムと結合されていてもよい。   The functions provided by the control program 9A may be used in combination with functions provided by other programs stored in the storage 9, such as the call application 9B or the mail application 9C, when realizing a call. The function provided by the control program 9A may be divided into a plurality of program modules, or may be combined with other programs.

通話アプリケーション9Bは、無線通信による通話のための通話機能を提供する。メールアプリケーション9Cは、電子メールの作成、送信、受信、及び表示等のための電子メール機能を提供する。ブラウザアプリケーション9Dは、WEBページを表示するためのWEBブラウジング機能を提供する。カメラアプリケーション9Eは、画像および動画像の撮影、編集および管理などを行うための機能を提供する。音声入力アプリケーション9Fは、マイクにより入力される音声を認識し、認識結果に基づいて処理を実行するための機能を提供する。ソフトウェアキーアプリケーション9Gは、ソウトウェアキーをディスプレイ2Aに表示させて、ソフトウェアキーを介して文字入力を受け付けるための機能を提供する。設定データ9Zは、スマートフォン1の動作に関する各種の設定に関する情報を含む。本実施形態において、設定データ9Zは、例えば、ホーム画面に表示させる画像に対応するアプリケーションの設定などを記憶する。ストレージ9に記憶されるアプリケーションは一例に過ぎない。図1に示すもの以外に、カレンダーアプリケーション、メモアプリケーション、ナビゲートアプリケーション、音楽プレイヤーアプリケーション、動画再生アプリケーション、計算機アプリケーション、付箋アプリケーションなどが記憶されていてもよい。   The call application 9B provides a call function for a call by wireless communication. The mail application 9C provides an email function for creating, sending, receiving, and displaying an email. The browser application 9D provides a WEB browsing function for displaying a WEB page. The camera application 9E provides a function for taking, editing, and managing images and moving images. The voice input application 9F provides a function for recognizing voice input by a microphone and executing processing based on the recognition result. The software key application 9G provides a function for displaying a software key on the display 2A and receiving a character input via the software key. The setting data 9Z includes information related to various settings related to the operation of the smartphone 1. In the present embodiment, the setting data 9Z stores, for example, application settings corresponding to images to be displayed on the home screen. The application stored in the storage 9 is only an example. In addition to those shown in FIG. 1, a calendar application, a memo application, a navigation application, a music player application, a moving image reproduction application, a computer application, a tag application, and the like may be stored.

コントローラ10は、演算処理装置である。演算処理装置は、例えば、CPU(Central Processing Unit)、SoC(System−on−a−chip)、MCU(Micro Control Unit)、及びFPGA(Field−Programmable Gate Array)を含むが、これらに限定されない。コントローラ10は、スマートフォン1の動作を統括的に制御して各種の機能を実現する。   The controller 10 is an arithmetic processing device. The arithmetic processing unit includes, for example, a CPU (Central Processing Unit), an SoC (System-on-a-chip), an MCU (Micro Control Unit), and an FPGA (Field-Programmable Gate Array), but is not limited thereto. The controller 10 controls various operations of the smartphone 1 to realize various functions.

具体的には、コントローラ10は、ストレージ9に記憶されているデータを必要に応じて参照しつつ、ストレージ9に記憶されているプログラムに含まれる命令を実行する。そして、コントローラ10は、データ及び命令に応じて機能部を制御し、それによって各種機能を実現する。機能部は、例えば、ディスプレイ2A、通信ユニット6、マイク8、及びスピーカ11を含むが、これらに限定されない。コントローラ10は、検出部の検出結果に応じて、制御を変更することがある。検出部は、例えば、タッチスクリーン2B、ボタン3、照度センサ4、近接センサ5、マイク8、カメラ12、及び姿勢検出ユニット15を含むが、これらに限定されない。   Specifically, the controller 10 executes instructions included in the program stored in the storage 9 while referring to the data stored in the storage 9 as necessary. And the controller 10 controls a function part according to data and a command, and implement | achieves various functions by it. The functional unit includes, for example, the display 2A, the communication unit 6, the microphone 8, and the speaker 11, but is not limited thereto. The controller 10 may change the control according to the detection result of the detection unit. The detection unit includes, for example, the touch screen 2B, the button 3, the illuminance sensor 4, the proximity sensor 5, the microphone 8, the camera 12, and the posture detection unit 15, but is not limited thereto.

コントローラ10は、例えば、制御プログラム9Aを実行することにより、タッチスクリーン2Bを介して第1の領域で受け付けたタッチ操作が第2の領域に近づいた場合に、第2の画像を透過させて第1の画像を表示する処理を実行する。   For example, by executing the control program 9A, the controller 10 transmits the second image and transmits the second image when the touch operation received in the first area via the touch screen 2B approaches the second area. Processing for displaying one image is executed.

スピーカ11は、音出力部である。スピーカ11は、コントローラ10から送信される音信号を音として出力する。スピーカ11は、例えば、着信音及び音楽を出力するために用いられる。レシーバ7及びスピーカ11の一方が、他方の機能を兼ねてもよい。   The speaker 11 is a sound output unit. The speaker 11 outputs the sound signal transmitted from the controller 10 as sound. The speaker 11 is used for outputting a ring tone and music, for example. One of the receiver 7 and the speaker 11 may also function as the other.

カメラ12は、撮影した画像を電気信号へ変換する。カメラ12には、例えば、ディスプレイ2Aに面している物体を撮影するインカメラ、ディスプレイ2Aの反対側の面に面している物体を撮影するアウトカメラが含まれる。   The camera 12 converts the captured image into an electrical signal. The camera 12 includes, for example, an in-camera that captures an object facing the display 2A, and an out-camera that captures an object facing the opposite surface of the display 2A.

姿勢検出ユニット15は、スマートフォン1の姿勢を検出する。姿勢検出ユニット15は、姿勢を検出するために、加速度センサ、方位センサ、及びジャイロスコープの少なくとも1つを備える。姿勢検出ユニット15は、例えば、加速度センサ、方位センサ、及びジャイロスコープなどの検出結果に基づいて、例えば、スマートフォン1の姿勢を検出する。   The posture detection unit 15 detects the posture of the smartphone 1. The posture detection unit 15 includes at least one of an acceleration sensor, a direction sensor, and a gyroscope in order to detect the posture. The posture detection unit 15 detects, for example, the posture of the smartphone 1 based on detection results of an acceleration sensor, a direction sensor, a gyroscope, and the like.

バイブレータ18は、スマートフォン1の一部又は全体を振動させる。バイブレータ18は、振動を発生させるために、例えば、圧電素子、又は偏心モータなどを有する。バイブレータ18による振動は、着信等の各種のイベントを利用者に報知するために用いられる。   The vibrator 18 vibrates a part or the whole of the smartphone 1. The vibrator 18 includes, for example, a piezoelectric element or an eccentric motor in order to generate vibration. The vibration by the vibrator 18 is used to notify the user of various events such as incoming calls.

続いて、図2を用いて、本実施形態に係るスマートフォン1により実行される制御の一例について説明する。図2は、本実施形態に係るスマートフォン1の制御の一例を示す図である。   Next, an example of control executed by the smartphone 1 according to the present embodiment will be described using FIG. FIG. 2 is a diagram illustrating an example of control of the smartphone 1 according to the present embodiment.

図2に示すように、スマートフォン1は、第1の画像G1と、第1の画像G1に重畳表示される第2の画像G2を含むホーム画面をタッチスクリーンディスプレイ2に表示させる(ステップS11)。図3は、第1の画像の一例を示す図である。図3に示すように、第1の画像G1は、ホーム画面用に設定される壁紙の画像と、ホーム画面に配置設定される複数のアイコンの画像とで構成される。第2の画像は、例えば、音声入力アプリケーション9Fに対応するウィジェットの画像で構成される。   As illustrated in FIG. 2, the smartphone 1 causes the touch screen display 2 to display a home screen including a first image G1 and a second image G2 superimposed and displayed on the first image G1 (step S11). FIG. 3 is a diagram illustrating an example of the first image. As shown in FIG. 3, the first image G1 includes a wallpaper image set for the home screen and a plurality of icon images set for the home screen. The second image is composed of a widget image corresponding to the voice input application 9F, for example.

続いて、スマートフォン1は、タッチスクリーン2Bを介して、第1の画像G1が表示されるタッチスクリーンディスプレイ2上の第1の領域A1に対するタッチ操作を検出すると、検出したタッチ操作が、第1の画像G1と第2の画像G2とが重畳表示される第2の領域A2に接近したかを判定する(ステップS12)。タッチ操作は、例えば、ロングタッチ、ドラッグなど、タッチスクリーンディスプレイ2から指が離れることのないタッチジェスチャに対応する。   Subsequently, when the smartphone 1 detects a touch operation on the first area A1 on the touch screen display 2 on which the first image G1 is displayed via the touch screen 2B, the detected touch operation is the first It is determined whether the image G1 and the second image G2 are close to the second area A2 where the images are superimposed (step S12). The touch operation corresponds to a touch gesture in which a finger does not leave the touch screen display 2, such as a long touch and a drag.

スマートフォン1は、判定の結果、タッチ操作が第2の領域A2に接近した場合には、第2の画像G2を透過させて、第1の画像G1を第2の領域A2に表示させる(ステップS13)。図2に示す例では、第2の画像G2が透過されることにより、第2の画像G2を通して、ホーム画面の画像及びホーム画面に配置されているアイコンの画像が視認可能な状態で表示される。   If the result of determination is that the touch operation has approached the second area A2, the smartphone 1 transmits the second image G2 and displays the first image G1 in the second area A2 (step S13). ). In the example illustrated in FIG. 2, the second image G2 is transmitted, so that the image on the home screen and the icon image arranged on the home screen are displayed in a visible state through the second image G2. .

スマートフォン1は、リリースが検出された場合には、再び、ステップS11に示すホーム画面の表示に戻る。   When the release is detected, the smartphone 1 returns to the home screen display shown in step S11 again.

図4を用いて、本実施形態に係るスマートフォン1による処理の流れを説明する。図4は、本実施形態に係るスマートフォン1による処理の流れを示すフローチャートである。図4に示す処理は、コントローラ10が、ストレージ9に記憶されている制御プログラム9Aなどを実行することにより実現される。   The flow of processing by the smartphone 1 according to this embodiment will be described with reference to FIG. FIG. 4 is a flowchart showing a flow of processing by the smartphone 1 according to the present embodiment. The processing shown in FIG. 4 is realized by the controller 10 executing a control program 9A stored in the storage 9.

図4に示すように、コントローラ10は、第1の画像G1及び第1の画像G1に重畳される第2の画像G2を含むホーム画面をタッチスクリーンディスプレイ2に表示する(ステップS101)。   As shown in FIG. 4, the controller 10 displays a home screen including a first image G1 and a second image G2 superimposed on the first image G1 on the touch screen display 2 (step S101).

続いて、コントローラ10は、第1の画像G1を表示するタッチスクリーンディスプレイ上の第1の領域A1にタッチ操作が検出されたかを判定する(ステップS102)。   Subsequently, the controller 10 determines whether a touch operation is detected in the first area A1 on the touch screen display that displays the first image G1 (step S102).

コントローラ10は、判定の結果、第1の領域A1にタッチ操作が検出された場合には(ステップS102,Yes)、続いて、検出されたタッチ操作がタッチスクリーンディスプレイ2上の第2の領域A2に接近したかを判定する(ステップS103)。   When the touch operation is detected in the first area A1 as a result of the determination (step S102, Yes), the controller 10 subsequently detects that the detected touch operation is the second area A2 on the touch screen display 2. Is determined (step S103).

コントローラ10は、判定の結果、タッチ操作が第2の領域A2に接近した場合には(ステップS103,Yes)、第2の領域A2において第2の領域A2に表示される第2の画像G2を透過させることにより第1の画像G1を表示する(ステップS104)。   As a result of the determination, when the touch operation has approached the second area A2 (Yes in step S103), the controller 10 displays the second image G2 displayed in the second area A2 in the second area A2. By transmitting the first image G1, the first image G1 is displayed (step S104).

続いて、コントローラ10は、タッチ操作が終了したか(リリースが検出されたか)を判定する(ステップS105)。   Subsequently, the controller 10 determines whether the touch operation has been completed (whether release has been detected) (step S105).

コントローラ10は、判定の結果、タッチ操作が終了した場合には(ステップS105,Yes)、ステップS101と同じホーム画面をタッチスクリーンディスプレイ2に再表示して(ステップS106)、図4に示す処理を終了する。すなわち、コントローラ10は、第1の画像G1に重畳表示された第2画像G2を透過させていないホーム画面の表示に戻す。   When the touch operation is completed as a result of the determination (Yes in step S105), the controller 10 redisplays the same home screen as that in step S101 on the touch screen display 2 (step S106), and performs the processing shown in FIG. finish. That is, the controller 10 returns to the display of the home screen that does not transmit the second image G2 superimposed and displayed on the first image G1.

上記ステップS103において、コントローラ10は、判定の結果、タッチ操作が第2の領域A2に接近しない場合には(ステップS103,No)、続いて、タッチ操作が終了したか(リリースが検出されたか)を判定する(ステップS107)。   In step S103, if the result of determination is that the touch operation does not approach the second area A2 (step S103, No), then whether the touch operation has ended (whether release has been detected). Is determined (step S107).

コントローラ10は、判定の結果、タッチ操作が終了した場合には(ステップS107,Yes)、図4に示す処理を終了する。これとは反対に、コントローラ10は、判定の結果、タッチ操作が終了していない場合には(ステップS107,No)、上記ステップS103の処理手順に戻る。   If the result of determination is that the touch operation has ended (step S107, Yes), the controller 10 ends the processing shown in FIG. On the contrary, if the result of determination is that the touch operation has not ended (No at step S107), the controller 10 returns to the processing procedure at step S103.

上記ステップS102において、コントローラ10は、判定の結果、第1の領域A1にタッチ操作が検出されない場合には(ステップS102,No)、図4に示す処理を終了する。   In step S102, if the result of determination is that a touch operation is not detected in the first area A1 (step S102, No), the controller 10 ends the processing shown in FIG.

(その他の実施形態)
図5を用いて、スマートフォン1により実行される制御の他の例について説明する。図5は、スマートフォン1により実行される制御の他の例を示す図である。
(Other embodiments)
Another example of the control executed by the smartphone 1 will be described with reference to FIG. FIG. 5 is a diagram illustrating another example of the control executed by the smartphone 1.

図5に示すように、スマートフォン1は、オブジェクトQ1と、第1の画像G3と、第1の画像G3に重畳表示される第2の画像G4を含むホーム画面をタッチスクリーンディスプレイ2に表示させる(ステップS21)。オブジェクトQ1は、アプリケーションに対応するアイコンなどのオブジェクトである。第1の画像G3は、例えば、ホーム画面などに設定される壁紙である。第2の画像G4は、ソフトウェアキーアプリケーション9Gに対応する画像である。図5に示す例では、第1の画像G3に第2の画像G4が重畳されたホーム画面がタッチスクリーンディスプレイ2に表示されている。   As shown in FIG. 5, the smartphone 1 causes the touch screen display 2 to display a home screen including an object Q1, a first image G3, and a second image G4 superimposed and displayed on the first image G3 ( Step S21). The object Q1 is an object such as an icon corresponding to the application. The first image G3 is, for example, a wallpaper set on the home screen. The second image G4 is an image corresponding to the software key application 9G. In the example illustrated in FIG. 5, the home screen in which the second image G4 is superimposed on the first image G3 is displayed on the touch screen display 2.

続いて、スマートフォン1は、オブジェクトQ1に対するタッチ及びドラッグを検出すると(ステップS22及びステップS23)、オブジェクトQ1が、第1の画像G3及び第2の画像G4が重畳表示される第2の領域A2に対して所定の距離まで接近したかを判定する。図5に示す例では、タッチ及びドラッグの操作が行われたオブジェクトQ1は、第1の画像G3のみが表示される第1の領域A1を移動している。   Subsequently, when the smartphone 1 detects a touch and a drag on the object Q1 (step S22 and step S23), the object Q1 is displayed in the second area A2 where the first image G3 and the second image G4 are displayed in a superimposed manner. In contrast, it is determined whether or not the vehicle has approached a predetermined distance. In the example illustrated in FIG. 5, the object Q1 on which the touch and drag operations are performed moves in the first area A1 where only the first image G3 is displayed.

スマートフォン1は、判定の結果、オブジェクトQ1が第2の領域A2に対して所定の距離まで接近した場合には、第2の画像G4の透過を開始する(ステップS24)。続いて、スマートフォン1は、オブジェクトQ1と第2の領域A2との距離が短くなるに従って、第2の画像を透過させる度合いを次第に強め、オブジェクトQ1と第2の画像G4との接触を検出した段階で、第2の画像G4を完全に透過させて、第1の画像G3を表示する(ステップS25)。図5に示す例では、透過させた第2の画像を通して、第1の画像G3上に配置されているゴミ箱のアイコンQ2が表示される。   As a result of the determination, the smartphone 1 starts transmission of the second image G4 when the object Q1 has approached the second area A2 up to a predetermined distance (step S24). Subsequently, the smartphone 1 gradually increases the degree of transmitting the second image as the distance between the object Q1 and the second region A2 becomes shorter, and detects the contact between the object Q1 and the second image G4. Thus, the second image G4 is completely transmitted to display the first image G3 (step S25). In the example shown in FIG. 5, the trash can icon Q2 arranged on the first image G3 is displayed through the transmitted second image.

スマートフォン1は、オブジェクトQ1と第1の画像G3上に配置されているゴミ箱のアイコンQ2との接触を検出すると(ステップS26)、オブジェクトQ1をホーム画面上から削除し、リリースの検出に応じて、再び、透過されていない第2の画像G4が第1の画像G3に重畳表示されたホーム画面を表示する(ステップS27)。   When the smartphone 1 detects contact between the object Q1 and the trash can icon Q2 arranged on the first image G3 (step S26), the smartphone 1 deletes the object Q1 from the home screen, and in response to detection of release, The home screen in which the second image G4 that has not been transmitted is superimposed and displayed on the first image G3 is displayed again (step S27).

上記実施形態では、スマートフォン1は、タッチスクリーンディスプレイ2上に、第1の画像と第2の画像とが重畳表示された第2の領域がある場合に、利用者のタッチ操作の位置が第2の領域に接近すると、第2の画像を透過させて第1の画像を表示する。このため、上記実施形態によれば、タッチスクリーンディスプレイ2上に、第1の画像と第2の画像とが重畳表示された第2の領域がある場合であっても、利用者の操作上の煩わしさを低減することができ、その結果、できるだけ利用者の操作の利便性を向上させることができる。   In the above embodiment, when the smartphone 1 has the second area in which the first image and the second image are superimposed and displayed on the touch screen display 2, the position of the touch operation of the user is the second. When approaching the area, the second image is transmitted and the first image is displayed. For this reason, according to the above embodiment, even if there is a second area where the first image and the second image are superimposed and displayed on the touch screen display 2, Annoyance can be reduced, and as a result, the convenience of the user's operation can be improved as much as possible.

上記の実施形態では、添付の請求項に係る装置の例として、スマートフォンについて説明したが、添付の請求項に係る装置は、スマートフォンに限定されない。添付の請求項に係る装置は、タッチスクリーン機能を備える携帯電話、タブレットなどの電子機器であれば、スマートフォン以外の装置であってもよい。   In the above embodiment, a smartphone has been described as an example of an apparatus according to the appended claims, but the apparatus according to the appended claims is not limited to a smartphone. The device according to the appended claims may be a device other than a smartphone as long as it is an electronic device such as a mobile phone or a tablet having a touch screen function.

添付の請求項に係る技術を完全かつ明瞭に開示するために特徴的な実施形態に関し記載してきた。しかし、添付の請求項は、上記の実施形態に限定されるべきものでなく、本明細書に示した基礎的事項の範囲内で当該技術分野の当業者が創作しうるすべての変形例及び代替可能な構成により具現化されるべきである。   The characterizing embodiments have been described in order to fully and clearly disclose the technology according to the appended claims. However, the appended claims should not be limited to the above-described embodiments, but all modifications and alternatives that can be created by those skilled in the art within the scope of the basic matters shown in this specification. Should be embodied by a possible configuration.

1 スマートフォン
2 タッチスクリーンディスプレイ
2A ディスプレイ
2B タッチスクリーン
3 ボタン
4 照度センサ
5 近接センサ
6 通信ユニット
7 レシーバ
8 マイク
9 ストレージ
9A 制御プログラム
9B 通話アプリケーション
9C メールアプリケーション
9D ブラウザアプリケーション
9E カメラアプリケーション
9F 音声入力アプリケーション
9G ソフトウェアキーアプリケーション
9Z 設定データ
10 コントローラ
11 スピーカ
12 カメラ
15 姿勢検出ユニット
18 バイブレータ
DESCRIPTION OF SYMBOLS 1 Smart phone 2 Touch screen display 2A Display 2B Touch screen 3 Button 4 Illuminance sensor 5 Proximity sensor 6 Communication unit 7 Receiver 8 Microphone 9 Storage 9A Control program 9B Call application 9C Mail application 9D Browser application 9E Camera application 9F Voice input application 9G Software key Application 9Z Setting data 10 Controller 11 Speaker 12 Camera 15 Attitude detection unit 18 Vibrator

Claims (3)

第1の画像が表示されている第1の領域と、前記第1の画像及び第2の画像が重畳表示されている第2の領域とを含むタッチスクリーンと
前記タッチスクリーンを介して前記第1の領域で受け付けた前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示させ、前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第1の画像上の第2のオブジェクトに接触すると、前記第1の画像上の第1のオブジェクトを該接触した第2のオブジェクトに応じて処理するコントローラと
を有する電子機器。
A touch screen including a first region in which the first image is displayed, and the first image and a second region where the second image is superimposed,
When a touch operation on the first object on the first image received in the first region via the touch screen approaches the second region, the second image is transmitted and the second image is transmitted. When the first image is displayed and a touch operation on the first object on the first image touches the second object on the first image, the first object on the first image is displayed. An electronic device comprising: a controller that performs processing according to the contacted second object .
第1の画像が表示されている第1の領域と、前記第1の画像及び第2の画像が重畳表示されている第2の領域とを含むタッチスクリーンを有する電子機器によって実行される制御方法であって、
前記タッチスクリーンを介して前記第1の領域の第1の画像上の第1のオブジェクトに対するタッチ操作を受け付けるステップと、
前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示させ、前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第1の画像上の第2のオブジェクトに接触すると、前記第1の画像上の第1のオブジェクトを該接触した第2のオブジェクトに応じて処理するステップと
を含む制御方法。
A first region in which the first image is being displayed, the control of the first image and the second image is performed by an electronic device having a touch screen and a second region being superimposed A method,
Receiving a touch operation on a first object on a first image of the first region via the touch screen;
When a touch operation on the first object on the first image approaches the second region, the second image is transmitted to display the first image, and the first image is displayed on the first image. When the touch operation on the first object touches the second object on the first image, the first object on the first image is processed according to the second object touched ; Control method.
第1の画像が表示されている第1の領域と、前記第1の画像及び第2の画像が重畳表示されている第2の領域とを含むタッチスクリーンを有する電子機器によって実行される制御方法であって、
前記タッチスクリーンを介して前記第1の領域の第1の画像上の第1のオブジェクトに対するタッチ操作を受け付けるステップと、
前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第2の領域に近づいた場合に、前記第2の画像を透過させて前記第1の画像を表示させ、前記第1の画像上の第1のオブジェクトに対するタッチ操作が前記第1の画像上の第2のオブジェクトに接触すると、前記第1の画像上の第1のオブジェクトを該接触した第2のオブジェクトに応じて処理するステップと
を実行させる制御プログラム。
A first region in which the first image is being displayed, the control of the first image and the second image is performed by an electronic device having a touch screen and a second region being superimposed A method,
Receiving a touch operation on a first object on a first image of the first region via the touch screen;
When a touch operation on the first object on the first image approaches the second region, the second image is transmitted to display the first image, and the first image is displayed on the first image. When the touch operation on the first object touches the second object on the first image, the first object on the first image is processed according to the second object touched ; Control program to execute
JP2013243809A 2013-11-26 2013-11-26 Electronic device, control method, and control program Active JP6152334B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013243809A JP6152334B2 (en) 2013-11-26 2013-11-26 Electronic device, control method, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013243809A JP6152334B2 (en) 2013-11-26 2013-11-26 Electronic device, control method, and control program

Publications (2)

Publication Number Publication Date
JP2015103989A JP2015103989A (en) 2015-06-04
JP6152334B2 true JP6152334B2 (en) 2017-06-21

Family

ID=53379363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013243809A Active JP6152334B2 (en) 2013-11-26 2013-11-26 Electronic device, control method, and control program

Country Status (1)

Country Link
JP (1) JP6152334B2 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006244078A (en) * 2005-03-02 2006-09-14 Canon Inc Display control device and control method thereof
JP5887847B2 (en) * 2011-11-10 2016-03-16 コニカミノルタ株式会社 Operation display apparatus, image forming apparatus, control method, and control program

Also Published As

Publication number Publication date
JP2015103989A (en) 2015-06-04

Similar Documents

Publication Publication Date Title
JP6125811B2 (en) Electronic device, control method, and control program
US20150249733A1 (en) Electronic device, control method, and control program
JP6215128B2 (en) Portable electronic device, control method and control program
JP6133564B2 (en) Electronic device, control method, and control program
JP6199142B2 (en) Portable electronic device, control method, and control program
JP6141352B2 (en) Electronic equipment and control program
JP6243835B2 (en) Portable electronic device and control method
JP6297847B2 (en) Portable electronic device, display control method, and display control program
JP6139912B2 (en) Portable electronic device, control method and control program
JP6152334B2 (en) Electronic device, control method, and control program
JP2014068240A (en) Electronic device, control method, and control program
JP2017022535A (en) Electronic apparatus, control method, and control program
JP2017050632A (en) Electronic apparatus, control method, and control program
US20150229802A1 (en) Electronic device, control method, and control program
JP6087685B2 (en) Portable electronic device, control method and control program
JP6399944B2 (en) Electronic device, control method, and control program
US10447640B2 (en) Communication device, control method, and control program
JP5763117B2 (en) Portable electronic device, control method and control program
JP2014225798A (en) Electronic apparatus, control method and control program
JP2016157346A (en) Electronic apparatus, control method, and control program
JP2016197441A (en) Electronic apparatus, control method, and control program
JP5583713B2 (en) COMMUNICATION DEVICE, COMMUNICATION METHOD, AND COMMUNICATION PROGRAM
JP2013207798A (en) Communication device, communication method, and communication program
JP2017195443A (en) Portable apparatus, control method, and control program
JP2019041219A (en) Portable terminal

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161206

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170529

R150 Certificate of patent or registration of utility model

Ref document number: 6152334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150