JP2018110330A - Electronic apparatus, program, and method for control - Google Patents
Electronic apparatus, program, and method for control Download PDFInfo
- Publication number
- JP2018110330A JP2018110330A JP2017000234A JP2017000234A JP2018110330A JP 2018110330 A JP2018110330 A JP 2018110330A JP 2017000234 A JP2017000234 A JP 2017000234A JP 2017000234 A JP2017000234 A JP 2017000234A JP 2018110330 A JP2018110330 A JP 2018110330A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- proximity sensor
- controller
- electronic device
- screen
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
Description
本発明は、電子機器、プログラムおよび制御方法に関する。 The present invention relates to an electronic device, a program, and a control method.
例えばスマートフォンおよびタブレット端末等の電子機器は、一般にタッチパネルを備えている。ユーザは、このような電子機器を、タッチパネルに触れることで制御するのが一般的である。近年、ユーザが端末から離れて行うジェスチャを例えば赤外線センサ等の近接センサによって検出し、ジェスチャと対応する入力操作を実行する電子機器が知られている(例えば特許文献1)。 For example, electronic devices such as smartphones and tablet terminals generally include a touch panel. A user generally controls such an electronic device by touching a touch panel. 2. Description of the Related Art In recent years, an electronic device that detects a gesture performed by a user away from a terminal using a proximity sensor such as an infrared sensor and performs an input operation corresponding to the gesture is known (for example, Patent Document 1).
ここで、ジェスチャによる入力操作が可能な電子機器において、ジェスチャによる入力とタッチパネルへの接触による入力とが併用されることが一般的である。このような電子機器において、ジェスチャによる入力操作が可能であるか否かが明確にユーザに伝わるインタフェースを備えることができれば、さらに操作性を向上させることができる。 Here, in an electronic device in which an input operation by a gesture is possible, an input by a gesture and an input by touching a touch panel are generally used in combination. If such an electronic device can be provided with an interface that clearly communicates to the user whether or not an input operation by a gesture is possible, the operability can be further improved.
かかる事情に鑑みてなされた本発明の目的は、操作性を向上させた電子機器、プログラムおよび制御方法を提供することにある。 An object of the present invention made in view of such circumstances is to provide an electronic device, a program, and a control method with improved operability.
本発明の実施形態に係る電子機器は、近接センサと、タッチパネルディスプレイと、通信ユニットと、前記近接センサによって検出されたジェスチャに基づいて自機器を使用している場合に、前記通信ユニットによって電話の着信を検出したときに前記タッチパネルディスプレイに接触して応答した場合は、前記近接センサによるジェスチャの検出をオフにするコントローラと、を備える。 When an electronic device according to an embodiment of the present invention is using its own device based on a proximity sensor, a touch panel display, a communication unit, and a gesture detected by the proximity sensor, A controller that turns off detection of a gesture by the proximity sensor when a response is made by touching the touch panel display when an incoming call is detected.
本発明の実施形態に係るプログラムは、近接センサと、タッチパネルディスプレイと、通信ユニットと、を備える電子機器に、前記近接センサによって検出されたジェスチャに基づいて自機器を使用している場合に、前記通信ユニットによって電話の着信を検出したときに前記タッチパネルディスプレイに接触して応答した場合は、前記近接センサによるジェスチャの検出をオフにするステップ、を実行させる。 The program according to the embodiment of the present invention uses an electronic device including a proximity sensor, a touch panel display, and a communication unit when the device is used based on a gesture detected by the proximity sensor. If the communication unit detects an incoming call and responds by touching the touch panel display, a step of turning off the gesture detection by the proximity sensor is executed.
本発明の実施形態に係る制御方法は、近接センサと、タッチパネルディスプレイと、通信ユニットと、を備える電子機器の制御方法であって、前記近接センサによって検出されたジェスチャに基づいて自機器を使用している場合に、前記通信ユニットによって電話の着信を検出したときに前記タッチパネルディスプレイに接触して応答した場合は、前記近接センサによるジェスチャの検出をオフにするステップ、を含む。 A control method according to an embodiment of the present invention is a method for controlling an electronic device including a proximity sensor, a touch panel display, and a communication unit, and uses the device itself based on a gesture detected by the proximity sensor. If the communication unit detects an incoming call by the communication unit and makes a response by touching the touch panel display, turning off the detection of the gesture by the proximity sensor is included.
本発明の一実施形態によれば、操作性を向上させた電子機器、プログラムおよび制御方法を提供することができる。 According to one embodiment of the present invention, it is possible to provide an electronic device, a program, and a control method with improved operability.
(電子機器の構成)
図1に示すように一実施形態の電子機器1は、タイマー12と、カメラ13と、ディスプレイ14と、マイク15と、ストレージ16と、通信ユニット17と、スピーカー25と、近接センサ18(ジェスチャセンサ)と、コントローラ11と、を備える。電子機器1は、さらにUVセンサ19と、照度センサ20と、加速度センサ21と、地磁気センサ22と、気圧センサ23と、ジャイロセンサ24と、を備える。図1は例示である。電子機器1は図1に示す構成要素の全てを含まなくてもよい。また、電子機器1は図1に示す以外の構成要素を備えていてもよい。
(Configuration of electronic equipment)
As shown in FIG. 1, an
タイマー12はコントローラ11からタイマー動作の指示を受け、所定時間経過した時点で、その旨を示す信号をコントローラ11に出力する。タイマー12は、図1に示すようにコントローラ11とは独立して設けられていてもよいし、コントローラ11が内蔵する構成であってもよい。
The
カメラ13は、電子機器1の周囲の被写体を撮像する。カメラ13は一例として、電子機器1のディスプレイ14が設けられる面に設けられるインカメラである。
The
ディスプレイ14は画面を表示する。画面は、例えば文字、画像、記号および図形等の少なくとも一つを含む。ディスプレイ14は、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro-Luminescence Panel)または無機ELパネル(Inorganic Electro-Luminescence Panel)等であってもよい。本実施形態において、ディスプレイ14はタッチパネルディスプレイ(タッチスクリーンディスプレイ)である。タッチパネルディスプレイは、指またはスタイラスペン等の接触を検出して、その接触位置を特定する。ディスプレイ14は、指またはスタイラスペン等が接触した位置を同時に複数検出することができる。
The
マイク15は、人が発する声を含む、電子機器1の周囲の音を検出する。
The
ストレージ16は記憶部としてプログラムおよびデータを記憶する。ストレージ16は、コントローラ11の処理結果を一時的に記憶する。ストレージ16は、半導体記憶デバイスおよび磁気記憶デバイス等の任意の記憶デバイスを含んでよい。ストレージ16は、複数の種類の記憶デバイスを含んでよい。ストレージ16は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
The
ストレージ16に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとを含む。アプリケーションは、例えば、ジェスチャに応じた処理をコントローラ11に実行させる。制御プログラムは、例えば、OS(Operating System)である。アプリケーションおよび制御プログラムは、通信ユニット17による通信または記憶媒体を介してストレージ16にインストールされてもよい。
The programs stored in the
通信ユニット17は、有線または無線により通信するためのインタフェースである。一実施形態の通信ユニット17によって行われる通信方式は無線通信規格である。例えば、無線通信規格は2G、3Gおよび4G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)およびPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)およびNFC(Near Field Communication)等を含む。通信ユニット17は、上述した通信規格の1つまたは複数をサポートすることができる。 The communication unit 17 is an interface for communicating by wire or wireless. The communication method performed by the communication unit 17 of one embodiment is a wireless communication standard. For example, the wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. For example, communication standards for cellular phones include LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (registered trademark) (Global System for Mobile communications) and PHS (PHS). Personal Handy-phone System). For example, wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and the like. The communication unit 17 can support one or more of the communication standards described above.
スピーカー25は音を出力する。例えば通話の際に、相手の声がスピーカー25から出力される。また、例えばニュースまたは天気予報等の読み上げの際に、その内容がスピーカー25から音で出力される。 The speaker 25 outputs sound. For example, the other party's voice is output from the speaker 25 during a call. For example, when reading out news or weather forecasts, the content is output from the speaker 25 as sound.
近接センサ18は、電子機器1の周囲の対象物との相対距離および対象物の移動方向等を非接触で検出する。本実施形態において、近接センサ18は1つの光源用赤外LED(Light Emitting Diode)と4つの赤外フォトダイオードとを有する。近接センサ18は、光源用赤外LEDから赤外光を対象物に向けて照射する。近接センサ18は、対象物からの反射光を赤外フォトダイオードの入射光とする。そして、近接センサ18は赤外フォトダイオードの出力電流に基づいて対象物との相対距離を測定することができる。また、近接センサ18は、対象物からの反射光がそれぞれの赤外フォトダイオードに入射する時間差により対象物の移動方向を検出する。したがって、近接センサ18は、電子機器1のユーザが電子機器1に触れずに行うエアジェスチャ(以下単に「ジェスチャ」という)を用いた操作を検出することができる。ここで、近接センサ18は可視光フォトダイオードを有していてもよい。
The
コントローラ11は、例えばCPU(Central Processing Unit)等のプロセッサである。コントローラ11は、他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってもよい。コントローラ11は、複数の集積回路を組み合わせて構成されてもよい。コントローラ11は、電子機器1の動作を統括的に制御して各種の機能を実現する。
The controller 11 is a processor such as a CPU (Central Processing Unit). The controller 11 may be an integrated circuit such as an SoC (System-on-a-Chip) in which other components are integrated. The controller 11 may be configured by combining a plurality of integrated circuits. The controller 11 controls various operations of the
具体的にはコントローラ11は、ストレージ16に記憶されているデータを必要に応じて参照する。コントローラ11は、ストレージ16に記憶されているプログラムに含まれる命令を実行してディスプレイ14等の他の機能部を制御することによって各種機能を実現する。例えばコントローラ11は、ユーザによる接触のデータをタッチパネルから取得する。例えばコントローラ11は、近接センサ18が検出したユーザのジェスチャに関する情報を取得する。例えばコントローラ11は、タイマー12からカウントダウンの残り時間(タイマー時間)等の情報を取得する。また、例えばコントローラ11は、アプリケーションの起動状況を把握する。
Specifically, the controller 11 refers to data stored in the
UVセンサ19は、太陽光等に含まれる紫外線(Ultraviolet)量を測定することができる。
The
照度センサ20は、当該照度センサ20に入射する周囲光の照度を検出する。
The
加速度センサ21は、電子機器1に働く加速度の方向および大きさを検出する。加速度センサ21は、例えばx軸方向、y軸方向およびz軸方向の加速度を検出する3軸(3次元)タイプである。加速度センサ21は、例えばピエゾ抵抗型であってもよいし、静電容量型であってもよい。
The
地磁気センサ22は地磁気の向きを検出して、電子機器1の向きを測定可能にする。
The
気圧センサ23は、電子機器1の外側の気圧(大気圧)を検出する。
The
ジャイロセンサ24は、電子機器1の角速度を検出する。コントローラ11は、ジャイロセンサ24により取得された角速度を時間積分することにより、電子機器1の向きの変化を測定することができる。
The gyro sensor 24 detects the angular velocity of the
(ジェスチャによる電子機器の操作)
図2は、ユーザがジェスチャにより電子機器1を操作する様子を示す。図2において、電子機器1は一例としてスタンドによって支持される。代替例として電子機器1は壁に立てかけられたり、テーブルに置かれたりしてもよい。近接センサ18がユーザのジェスチャを検出すると、コントローラ11は検出されたジェスチャに基づく処理を行う。図2の例では、ジェスチャに基づく処理はレシピが表示されている画面のスクロールである。例えば、ユーザが電子機器1の長手方向上方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が上方へとスクロールする。また、例えば、ユーザが電子機器1の長手方向下方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が下方へとスクロールする。
(Operating electronic devices using gestures)
FIG. 2 shows a state in which the user operates the
図2に示す電子機器1はスマートフォンである。代替例として電子機器1は例えば、携帯電話端末、ファブレット、タブレットPCまたはフィーチャーフォン等でもよい。また、電子機器1は、上記のものに限定されず、例えば、PDA、リモコン端末、携帯音楽プレイヤー、ゲーム機、電子書籍リーダ、カーナビゲーション、家電製品または産業用機器(FA機器)等でもよい。
The
(ジェスチャを検出する手法)
ここで、図3および図4を参照しながら、コントローラ11が近接センサ18の出力に基づいてユーザのジェスチャを検出する手法を説明する。図3は、電子機器1を正面から見たときの近接センサ18の構成例を示す図である。近接センサ18は、光源用赤外LED180と、4つの赤外フォトダイオードSU,SR,SDおよびSLと、を有する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181を介して検出対象物からの反射光を検出する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181の中心から見て対称的に配置されている。ここで、図3に示される仮想線D1は電子機器1の長手方向と略平行であるとする。図3の仮想線D1上に、赤外フォトダイオードSUと赤外フォトダイオードSDとが離れて配置されている。そして、図3の仮想線D1の方向において、赤外フォトダイオードSRおよびSLは、赤外フォトダイオードSUと赤外フォトダイオードSDとの間に配置されている。
(Method for detecting gestures)
Here, a method in which the controller 11 detects a user gesture based on the output of the
図4は、4つの赤外フォトダイオードSU,SR,SDおよびSLの検出対象物(例えばユーザの手等)が、図3の仮想線D1の方向に沿って移動したときの検出値の推移を例示する。ここで、仮想線D1の方向において、赤外フォトダイオードSUと赤外フォトダイオードSDとが最も離れている。そのため、図4に示すように、赤外フォトダイオードSUの検出値(破線)の変化(例えば上昇)と、赤外フォトダイオードSDの検出値(細い実線)の同じ変化(例えば上昇)との時間差が最も大きい。コントローラ11は、フォトダイオードSU,SR,SDおよびSLの検出値の所定の変化の時間差を把握することによって、検出対象物の移動方向を判定できる。 FIG. 4 shows the transition of the detection value when the detection objects (for example, the user's hand) of the four infrared photodiodes SU, SR, SD, and SL move along the direction of the virtual line D1 in FIG. Illustrate. Here, the infrared photodiode SU is farthest from the infrared photodiode SD in the direction of the virtual line D1. Therefore, as shown in FIG. 4, the time difference between the change (for example, increase) in the detection value (broken line) of the infrared photodiode SU and the same change (for example, increase) in the detection value (thin solid line) of the infrared photodiode SD. Is the largest. The controller 11 can determine the moving direction of the detection object by grasping the time difference of the predetermined change in the detection values of the photodiodes SU, SR, SD, and SL.
コントローラ11は、近接センサ18からフォトダイオードSU,SR,SDおよびSLの検出値を取得する。そして、コントローラ11は、例えば検出対象物の仮想線D1の方向への移動を把握するために、フォトダイオードSDの検出値からフォトダイオードSUの検出値を減算した値を所定の時間で積分してもよい。図4の例では、領域R41およびR42において積分値は非ゼロの値となる。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1の方向における検出対象物の移動を把握できる。
The controller 11 acquires the detection values of the photodiodes SU, SR, SD, and SL from the
また、コントローラ11は、フォトダイオードSLの検出値からフォトダイオードSRの検出値を減算した値を所定の時間で積分してもよい。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1に直交する方向(電子機器1の短手方向に略平行な方向)における検出対象物の移動を把握できる。 Further, the controller 11 may integrate a value obtained by subtracting the detection value of the photodiode SR from the detection value of the photodiode SL in a predetermined time. From this change in integral value (for example, a change in positive value, zero, or negative value), the controller 11 moves the detection target in a direction orthogonal to the virtual line D1 (a direction substantially parallel to the short direction of the electronic device 1). Can be grasped.
代替例として、コントローラ11はフォトダイオードSU,SR,SDおよびSLの全ての検出値を用いて演算を行ってもよい。すなわち、コントローラ11は検出対象物の移動方向を、電子機器1の長手方向および短手方向の成分に分離して演算することなく把握してもよい。
As an alternative example, the controller 11 may perform calculation using all detection values of the photodiodes SU, SR, SD, and SL. That is, the controller 11 may grasp the moving direction of the detection target without calculating the components in the longitudinal direction and the short direction of the
検出されるジェスチャは例えば、左右のジェスチャ、上下のジェスチャ、斜めのジェスチャ、時計回りで円を描くジェスチャ、および反時計回りで円を描くジェスチャ等である。例えば左右へのジェスチャとは、電子機器1の短手方向と略平行な方向に行われるジェスチャである。上下のジェスチャとは、電子機器1の長手方向と略平行な方向に行われるジェスチャである。斜めのジェスチャとは、電子機器1と略平行な平面において、電子機器1の長手方向と短手方向とのいずれとも平行でない方向に行われるジェスチャである。
The detected gestures include, for example, left and right gestures, up and down gestures, diagonal gestures, gestures that draw a circle in a clockwise direction, and gestures that draw a circle in a counterclockwise direction. For example, the right and left gesture is a gesture performed in a direction substantially parallel to the short direction of the
(キッチンモード)
図5は、ユーザがジェスチャにより電子機器1を操作する状況の一例を示す。図5の例で、ユーザは料理のレシピを電子機器1のディスプレイ14に表示しながら、キッチンでレシピに従って料理をしている。つまり、コントローラ11は、ユーザが自機器(電子機器1)を使用しているときに、料理のレシピを表示する。このとき、近接センサ18はユーザのジェスチャを検出する。そして、コントローラ11は近接センサ18が検出したジェスチャに基づく処理を行う。例えば、コントローラ11は特定のジェスチャ(例えばユーザが手を上下に動かすジェスチャ)に応じてレシピをスクロールする処理が可能である。料理中は、ユーザの手が汚れたり、濡れたりすることがある。しかし、ユーザは電子機器1に触れることなくレシピをスクロールすることができる。したがって、ディスプレイ14が汚れること、および料理中のユーザの手にディスプレイ14の汚れがうつることを回避できる。
(Kitchen mode)
FIG. 5 shows an example of a situation where the user operates the
ここで、電子機器1はモードを複数有する。モードとは電子機器1の全体の動作について制限等を与える動作モード(動作状態または動作状況)を意味する。モードは同時に1つだけ選択可能である。本実施形態において、電子機器1のモードは第1モードおよび第2モードを含む。第1モードは、例えばキッチン以外の部屋および外出先等での使用に適している通常の動作モード(通常モード)である。第2モードは、キッチンでレシピを表示しながら料理を行うのに最適な電子機器1の動作モード(キッチンモード)である。上記で説明したように、第2モードの場合には、ジェスチャによる入力操作が可能であることが好ましい。つまり、電子機器1のモードが第2モードに切り替わる場合には、連動して近接センサ18を動作させてジェスチャを検出可能にすることが好ましい。本実施形態の電子機器1は、後述するようにユーザがアイコン30をタップすることによって、第2モード(キッチンモード)への切り替えと近接センサ18の動作とを連動させることが可能である。
Here, the
(画面表示例)
図6(a)〜図6(f)は本実施形態に係る電子機器1のディスプレイ14に表示される画面例を示す。上記のように、電子機器1は第1モード(通常モード)に加えて、キッチンでレシピを表示しながら料理を行うのに最適な第2モード(キッチンモード)を有する。図6(a)および図6(b)の画面表示のとき、電子機器1は第1モード(通常モード)で動作する。図6(c)、図6(d)、図6(e)および図6(f)の画面表示のとき、電子機器1は第2モード(キッチンモード)で動作する。
(Example of screen display)
FIG. 6A to FIG. 6F show examples of screens displayed on the
図6(a)は、選択ボタン140および選択ボタン141を含む画面例である。ユーザは、選択ボタン140または選択ボタン141をタップすることによってレシピの検索画面を表示させる。そして、ユーザは検索結果であるレシピを表示させることができる。
FIG. 6A shows an example of a screen including a
選択ボタン140は、ユーザがWebブラウザを利用してレシピを検索して、検索結果であるレシピを表示させる場合に選択される。つまり、ユーザが選択ボタン140を選択すると、料理のレシピは、Webブラウザで表示される。また、選択ボタン141は、ユーザが専用のアプリケーションを利用してレシピを検索して、検索結果であるレシピを表示させる場合に選択される。つまり、ユーザが選択ボタン140を選択すると、料理のレシピは、料理のレシピに関連した専用のアプリケーションで表示される。ここで、専用のアプリケーションは、インターネット経由でサーバにアクセスしてレシピのデータを取得できるが、既にいくつかのレシピのデータを電子機器1のストレージ16に記憶している。ユーザは、例えば通信速度が遅い環境にいる場合でも、選択ボタン141を選択することによって、専用のアプリケーションを使って素早くストレージ16に記憶されたレシピの検索および表示が可能である。
The
図6(b)は、ユーザが選択ボタン140または選択ボタン141をタップしてWebブラウザまたは専用のアプリケーションでレシピを検索した後に、検索結果であるレシピを表示させたときの画面例である。図6(b)の画面では、レシピに重ねてアイコン30が表示されている。アイコン30は、2つの円が、一部が重なるように連結された形状をしている。アイコン30の一方の円は、他方の円よりもやや大きい。アイコン30の大きい方の円の内部には鍋の絵が描かれている。コントローラ11は、アイコン30がユーザによってタップされたことを検知すると第1モードと第2モードとを切り替える。図6(b)の画面を表示しているとき、電子機器1は第1モード(通常モード)で動作している。ユーザがアイコン30をタップすると、電子機器1のモードは第2モード(キッチンモード)に切り替わる。また、電子機器1が第2モードで動作しているときに、ユーザがアイコン30をタップすると、電子機器1のモードは第1モードに切り替わる。
FIG. 6B shows an example of a screen when the user taps the
図6(c)は、ユーザがアイコン30をタップして、電子機器1のモードが第2モード(キッチンモード)に切り替わったときの画面例である。このとき、電子機器1は近接センサ18を動作させて、ユーザのジェスチャを検出可能にする。ディスプレイ14に表示されるアイコン30は、キッチンモードおよび近接センサ18によりジェスチャの検出を兼用するアイコンである。また、コントローラ11は、アイコン30への接触を検知すると、キッチンモードの開始および近接センサ18によるジェスチャの検出を開始すると共に、アイコン30の態様を変化させる。図6(c)の例では、コントローラ11はアイコン30の色を変化させる。アイコン30の2つの円の内部は白色から黒色へと変化している。また、コントローラ11はアイコン30の形状を変化させる。アイコン30の鍋の絵は、蓋が閉じていた状態から開いた状態へと変化している。
FIG. 6C is a screen example when the user taps the
図6(c)の画面が表示されている場合に、コントローラ11は、近接センサ18によって検出されたユーザのジェスチャに基づいて画面表示を制御する。コントローラ11は、例えば近接センサ18によって手を上下方向に移動させるジェスチャが検出されると、レシピが表示されている画面をスクロールさせる操作を行う。また、コントローラ11は、例えば近接センサ18によって手を1秒等の所定時間かざすジェスチャが検出されると、レシピの表示をタイマー画面の表示に切り替える。また、コントローラ11は、第2モード(キッチンモード)で料理のレシピが表示されているときに通信ユニット17によって電話の着信を検出すると、以下に説明するように、近接センサ18によって検出されたジェスチャに基づいて応答する。
When the screen of FIG. 6C is displayed, the controller 11 controls the screen display based on the user's gesture detected by the
(第2モードでの着信および通話)
図6(d)は電話の着信があった場合の画面例である。コントローラ11は、電話の着信があった場合に、図6(c)のレシピの表示画面から図6(d)の着信画面に切り替える。図6(d)の画面例では、ディスプレイ14に発信者の画像、名前および電話番号が表示される。また、ユーザの手を左から右へと移動させるジェスチャによって応答できることを示すガイドがディスプレイ14に表示される。ユーザは手を左から右へと移動させるジェスチャによって電話に応答することができる。このとき、コントローラ11は、マイク15とスピーカー25を動作させて、ハンズフリー通話を可能にする。ここで、コントローラ11は、ユーザが電話に応答せずに所定時間(例えば15秒)が経過したと判定した場合に、画面を図6(c)のレシピの表示画面に戻す。また、コントローラ11は、近接センサ18によって検出されたジェスチャに基づいて通話をキャンセルする。例えば、コントローラ11は、近接センサ18によって手を所定時間(例えば3秒)かざすジェスチャが検出されると、通話をキャンセルして画面を図6(c)のレシピの表示画面に戻す。このとき、コントローラ11は、伝言メモを起動して相手のメッセージを録音してもよい。
(Incoming calls and calls in the second mode)
FIG. 6D shows an example of a screen when there is an incoming call. When an incoming call is received, the controller 11 switches from the recipe display screen of FIG. 6C to the incoming screen of FIG. 6D. In the screen example of FIG. 6D, the caller's image, name, and telephone number are displayed on the
図6(e)は電話の着信に対してユーザが応答した場合の画面例である。コントローラ11は、近接センサ18によって手を左から右へと移動させるジェスチャが検出されると、図6(d)の着信画面から図6(e)の通話中画面に切り替える。図6(e)の画面例では、ディスプレイ14に発信者の画像、名前、電話番号および通話時間が小さく表示される。また、ユーザが手をかざすジェスチャによって通話を終了(終話)できることを示すガイドがディスプレイ14に表示される。コントローラ11は、近接センサ18によって手を所定時間(例えば3秒)かざすジェスチャが検出されると、画面を図6(c)のレシピの表示画面に戻す。
FIG. 6E shows an example of a screen when the user responds to an incoming call. When the
図6(f)は通話中にユーザが音量を調整する場合の画面例である。コントローラ11は、近接センサ18によって検出されたジェスチャに基づいて通話音量を変更する。例えば、コントローラ11は、近接センサ18によって手を上下方向に移動させるジェスチャが検出されると、図6(e)の通話中画面から図6(f)の通話音量画面に切り替える。図6(f)の画面例では、ディスプレイ14に通話音量を示すスライドバーが表示される。また、ユーザが手を下から上へと移動させるジェスチャで音量が上がること、および、ユーザが手を上から下へと移動させるジェスチャで音量が下がることを示すガイドがディスプレイ14に表示される。コントローラ11は、ユーザが音量調整のためのジェスチャをせずに所定時間(例えば3秒)が経過したと判定した場合に、画面を図6(e)の通話中画面に戻す。
FIG. 6F shows an example of a screen when the user adjusts the volume during a call. The controller 11 changes the call volume based on the gesture detected by the
(ジェスチャ検出の停止)
ここで、図7(a)は、図6(d)に示した第2モード(キッチンモード)の着信画面をより詳細に説明するための図である。図7(a)に示すように、第2モードの着信画面の下部には、ジェスチャ検出を停止して、タッチパネルディスプレイ(ディスプレイ14)への接触による入力操作に切り替えるための切替ボタン150が設けられている。また、着信画面は全画面で表示される。全画面とは通知バー160を除くディスプレイ14の全領域である。ここで、通知バー160はディスプレイ14の上部の黒色で示される帯状の領域である。図7(a)に示すように、近接センサ18がジェスチャを検出可能であることを示す手の形のピクト170(絵文字)は通知バー160に表示される。また、現在時刻が通知バー160に表示される。通知バー160には、例えば電波状態、マナーモードおよび電池の充電状態等を表す別のピクトがさらに表示されてもよい。
(Stop gesture detection)
Here, FIG. 7A is a diagram for explaining the incoming screen in the second mode (kitchen mode) shown in FIG. 6D in more detail. As shown in FIG. 7A, a
ユーザが近接センサ18によって検出されたジェスチャに基づいて自機器(電子機器1)を使用している場合に、通信ユニット17によって電話の着信を検出すると、図7(a)に示す画面が表示される。そして、ユーザがタッチパネルディスプレイ(ディスプレイ14)の切替ボタン150に接触して応答した場合は、コントローラ11は近接センサ18によるジェスチャの検出をオフにする。
When the communication unit 17 detects an incoming call when the user is using his / her own device (electronic device 1) based on the gesture detected by the
コントローラ11は近接センサ18によるジェスチャの検出をオフにして、入力操作の手法をタッチパネルへの接触に切り替える。電子機器1は第1モード(通常モード)で動作する。そして、コントローラ11は図7(b)の画面を表示する。図7(b)は第1モードの着信画面である。図7(b)の着信画面には、ユーザが左から右方向への接触操作(スライド操作)によって電話に応答できることを示すガイドが表示されている。
The controller 11 turns off the gesture detection by the
コントローラ11は、近接センサ18によるジェスチャの検出がオンになると、タッチパネルディスプレイ(ディスプレイ14)上の通知バー160にピクト170を表示する。そして、コントローラ11は、近接センサ18によるジェスチャの検出がオフになると、タッチパネルディスプレイ(ディスプレイ14)上の通知バー160にピクト170を非表示にする。図7(b)の画面で、通知バー160には、手の形のピクト170(絵文字)が表示されない。ユーザは、通知バー160にピクト170が表示されていないことから、視覚的に近接センサ18によるジェスチャの検出がオン(有効)でないことを把握できる。
When the detection of the gesture by the
図7(c)は、図6(e)に示した第2モード(キッチンモード)の通話中画面をより詳細に説明するための図である。図7(c)に示すように、第2モードの通話中画面の下部には、ジェスチャ検出を停止して、タッチパネルディスプレイ(ディスプレイ14)への接触による入力操作に切り替えるための切替ボタン150が設けられている。また、通話中画面は全画面(通知バー160を除くディスプレイ14の全領域)で表示される。図7(c)に示すように、通知バー160にはピクト170および現在時刻が表示されている。
FIG.7 (c) is a figure for demonstrating in detail the screen during a call of the 2nd mode (kitchen mode) shown in FIG.6 (e). As shown in FIG. 7C, a
図7(c)の画面において、ユーザがタッチパネルディスプレイ(ディスプレイ14)の切替ボタン150をタップした場合は、コントローラ11は近接センサ18によるジェスチャの検出をオフにする。
When the user taps the
コントローラ11は近接センサ18によるジェスチャの検出をオフにして、入力操作の手法をタッチパネルへの接触に切り替える。電子機器1は第1モード(通常モード)で動作する。そして、コントローラ11は図7(d)の画面を表示する。図7(d)は電子機器1の第1モードの通話中画面である。図7(d)の通話中画面には、ハンズフリー通話を終了してスピーカー25をオフにしたことの通知が表示されている。また、図7(d)の通話中画面には、ユーザが終話アイコンに接触する操作(タップ操作)によって通話を終了(終話)できることが表示されている。ここで、図7(d)の通話中画面には他のアイコン、例えばダイヤルキーを表示するためのアイコン、再びスピーカー25をオンにするためのアイコン等が表示されていてもよい。
The controller 11 turns off the gesture detection by the
また、図7(d)の画面で、通知バー160には、手の形のピクト170(絵文字)が表示されない。ユーザは、通知バー160にピクト170が表示されていないことから、視覚的に近接センサ18によるジェスチャの検出のオフ(無効)を把握できる。ここで、ピクト170の表示または非表示は、近接センサ18によるジェスチャの検出のオン(有効)またはオフ(無効)と連動する。近接センサ18が動作中であるが、ジェスチャの検出ではなく例えば周囲の対象物との相対距離を検出している場合には、ピクト170は表示されない。
Further, in the screen of FIG. 7D, the
(フローチャート)
図8は、本実施形態に係る電子機器1のコントローラ11が実行する処理(制御方法)の一例を示すフローチャートである。図8のフローチャートは、電子機器1が第2モード(キッチンモード)であってレシピを表示しているときに電話の着信があった場合の画面切り替え処理を示す。
(flowchart)
FIG. 8 is a flowchart illustrating an example of processing (control method) executed by the controller 11 of the
コントローラ11は、通信ユニット17によって電話の着信を検出しなければ(ステップS1のNo)、レシピをディスプレイ14に表示したまま電話の着信を待つ。コントローラ11は、通信ユニット17によって電話の着信を検出した場合に(ステップS1のYes)、第2モードの着信画面を表示する(ステップS2)。第2モードの着信画面は、例えば図7(a)の画面である。このとき、近接センサ18によるジェスチャ検出はオン(有効)であるため、ピクト170が表示される。
If the communication unit 17 does not detect an incoming call (No in step S1), the controller 11 waits for an incoming call while displaying the recipe on the
コントローラ11は、ユーザによるタッチパネルディスプレイ(ディスプレイ14)への接触を検知しない場合に(ステップS3のNo)、ステップS4の処理を実行する。つまり、コントローラ11は、近接センサ18が着信の応答と関連付けられたジェスチャを検知した場合に(ステップS4のYes)、第2モードの通話中画面を表示する(ステップS5)。第2モードの通話中画面は、例えば図7(c)の画面である。このとき、近接センサ18によるジェスチャ検出はオン(有効)であるため、ピクト170が表示される。また、本実施形態において、応答と関連付けられたジェスチャは、ユーザの手を左から右へと移動させるジェスチャである。
The controller 11 performs the process of step S4, when the contact to the touch panel display (display 14) by a user is not detected (No of step S3). That is, when the
コントローラ11は、近接センサ18が着信の応答と関連付けられたジェスチャを検知しない場合に(ステップS4のNo)、ステップS3の処理に戻る。
When the
コントローラ11は、第2モードの通話中画面を表示(ステップS5)した後に、ステップS6の処理を実行する。つまり、コントローラ11は、ユーザによるタッチパネルディスプレイ(ディスプレイ14)への接触を検知した場合に(ステップS6のYes)、ステップS11の処理を実行する。本実施形態において、タッチパネルディスプレイへの接触は切替ボタン150へのタップである。
After displaying the second mode call screen (step S5), the controller 11 executes the process of step S6. That is, the controller 11 performs the process of step S11, when the contact to the touch panel display (display 14) by a user is detected (Yes of step S6). In the present embodiment, the touch on the touch panel display is a tap on the
コントローラ11は、ユーザによるタッチパネルディスプレイ(ディスプレイ14)への接触を検知しない場合に(ステップS6のNo)、ステップS7の処理を実行する。つまり、コントローラ11は、近接センサ18が終話と関連付けられたジェスチャを検知、または相手方の終話を検知した場合に(ステップS7のYes)、第2モードでレシピを表示して(ステップS8)一連の処理を終了する。ここで、第2モードでレシピを表示する画面は例えば図6(c)の画面である。また、終話と関連付けられたジェスチャは、例えばユーザの手を所定時間(例えば3秒)かざすジェスチャである。また、コントローラ11は、通信ユニット17を介して、通話の相手方の終話を検知する。
The controller 11 performs the process of step S7, when not detecting the contact to the touch panel display (display 14) by a user (No of step S6). That is, the controller 11 displays the recipe in the second mode when the
コントローラ11は、近接センサ18が終話と関連付けられたジェスチャを検知せず、かつ、相手方の終話を検知しない場合に(ステップS7のNo)、ステップS6の処理に戻る。
When the
コントローラ11は、第2モードの着信画面を表示(ステップS2)した後に、ユーザによるタッチパネルディスプレイ(ディスプレイ14)への接触を検知した場合に(ステップS3のYes)、ステップS9の処理を実行する。本実施形態において、タッチパネルディスプレイへの接触は切替ボタン150へのタップである。
When the controller 11 detects a touch on the touch panel display (display 14) by the user after displaying the incoming screen in the second mode (step S2) (Yes in step S3), the controller 11 executes the process of step S9. In the present embodiment, the touch on the touch panel display is a tap on the
コントローラ11は、ステップS9の処理として、第1モードの着信画面を表示する。第1モードの着信画面は例えば図7(b)の画面である。このとき、近接センサ18によるジェスチャ検出がオフ(無効)であるため、ピクト170は表示されない。
The controller 11 displays the incoming screen in the first mode as the process of step S9. The incoming screen in the first mode is, for example, the screen shown in FIG. At this time, since the gesture detection by the
コントローラ11は、着信の応答と関連付けられた接触を検知した場合に(ステップS10のYes)、第1モードの通話中画面を表示する(ステップS11)。第1モードの通話中画面は、例えば図7(d)の画面である。このとき、近接センサ18によるジェスチャ検出がオフ(無効)であるため、ピクト170は表示されない。本実施形態において、着信の応答と関連付けられた接触の操作は、左から右方向への接触操作(スライド操作)である。
When the controller 11 detects a contact associated with the incoming call response (Yes in step S10), the controller 11 displays a screen during the call in the first mode (step S11). The screen during a call in the first mode is, for example, the screen of FIG. At this time, since the gesture detection by the
また、コントローラ11は、着信の応答と関連付けられた接触を検知しない場合に(ステップS10のNo)、着信の応答と関連付けられた接触を検知するまで待機する。 When the controller 11 does not detect the contact associated with the incoming response (No in Step S10), the controller 11 waits until the contact associated with the incoming response is detected.
コントローラ11は、第1モードの通話中画面を表示(ステップS11)した後に、ステップS12の処理を実行する。つまり、コントローラ11は、終話と関連付けられた接触、または相手方の終話を検知した場合に(ステップS12のYes)、第1モードでレシピを表示して(ステップS13)一連の処理を終了する。ここで、第1モードでレシピを表示する画面は例えば図6(b)の画面である。また、終話と関連付けられた接触の操作は、例えば終話アイコンに接触する操作(タップ操作)である。 After the controller 11 displays the first mode call screen (step S11), the controller 11 executes the process of step S12. That is, the controller 11 displays a recipe in the first mode (step S13) and terminates the series of processes when the contact associated with the end story or the other party's end story is detected (Yes in step S12). . Here, the screen for displaying the recipe in the first mode is, for example, the screen of FIG. The contact operation associated with the end story is, for example, an operation (tap operation) for touching the end story icon.
また、コントローラ11は、終話と関連付けられた接触がなく、かつ相手方の終話を検知しない場合に(ステップS12のNo)、終話と関連付けられた接触、または相手方の終話を検知するまで待機する。 Further, when there is no contact associated with the end talk and the other party's end talk is not detected (No in step S12), the controller 11 detects the contact associated with the end talk or the other party's end talk. stand by.
以上に説明したように、本実施形態に係る電子機器1は、近接センサ18と、タッチパネルディスプレイであるディスプレイ14と、通信ユニット17と、近接センサ18によって検出されたジェスチャに基づいて自機器を使用している場合に、通信ユニット17によって電話の着信を検出したときにタッチパネルディスプレイに接触して応答した場合は、近接センサ18によるジェスチャの検出をオフにするコントローラ11と、を備える。電子機器1は、ジェスチャに基づく入力操作を使用していても、ユーザによってタッチパネルディスプレイに接触があった場合にはジェスチャの検出をオフにする。このとき、ユーザは、自らのディスプレイ14への接触が入力操作の切り替えのトリガーとなるため、ジェスチャの検出がオフになったことを明確に把握できる。よって、本実施形態に係る電子機器1は従来よりも操作性が向上している。
As described above, the
また、本実施形態に係る電子機器1は、近接センサ18によるジェスチャの検出のオン(有効)またはオフ(無効)と連動して表示または非表示とされるピクト170を用いる。そのため、ユーザは、ピクト170によって視覚的に近接センサ18によるジェスチャの検出の状態を把握できる。よって、本実施形態に係る電子機器1は一層操作性が向上している。
In addition, the
(その他の実施形態)
本発明を図面および実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形および修正を行うことが容易であることに注意されたい。したがって、これらの変形および修正は本発明の範囲に含まれることに留意されたい。例えば、各手段または各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段またはステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
(Other embodiments)
Although the present invention has been described based on the drawings and embodiments, it should be noted that those skilled in the art can easily make various variations and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, functions included in each means or each step can be rearranged so as not to be logically contradictory, and a plurality of means or steps can be combined into one or divided. .
本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、例えば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機またはその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作または制御方法は、プログラム命令(ソフトウェア)で実装された専用回路(例えば、特定機能を実行するために相互接続された個別の論理ゲート)、一以上のプロセッサにより実行される論理ブロックおよび/またはプログラムモジュール等により実行されることに留意されたい。論理ブロックおよび/またはプログラムモジュール等を実行する一以上のプロセッサには、例えば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置および/またはこれらいずれかの組合せが含まれる。ここに示す実施形態は、例えば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコードまたはコードセグメントであってもよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラスまたは命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってもよい。コードセグメントは、他のコードセグメントまたはハードウェア回路と、情報、データ引数、変数または記憶内容の送信および/または受信を行い、これにより、コードセグメントが他のコードセグメントまたはハードウェア回路と接続される。 Many aspects of the present disclosure are presented as a series of operations performed by a computer system or other hardware capable of executing program instructions. The computer system and other hardware include, for example, a general-purpose computer, a PC (personal computer), a dedicated computer, a workstation, a PCS (Personal Communications System), a mobile (cellular) telephone, and a data processing function. Mobile phones, RFID receivers, game consoles, electronic notepads, laptop computers, GPS (Global Positioning System) receivers or other programmable data processing devices are included. In each embodiment, various operations or control methods are performed by dedicated circuitry (eg, individual logic gates interconnected to perform specific functions) implemented by program instructions (software), one or more processors. Note that it is executed by a logical block and / or a program module. The one or more processors that execute logic blocks and / or program modules include, for example, one or more microprocessors, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), a DSP (Digital Signal Processor), and a PLD. (Programmable Logic Device), FPGA (Field Programmable Gate Array), processor, controller, microcontroller, microprocessor, electronic equipment, other devices designed to perform the functions described herein, and / or any combination thereof Is included. The embodiments shown here are implemented by, for example, hardware, software, firmware, middleware, microcode, or any combination thereof. The instructions may be program code or code segments for performing the necessary tasks. The instructions can then be stored on a machine-readable non-transitory storage medium or other medium. A code segment may represent any combination of procedures, functions, subprograms, programs, routines, subroutines, modules, software packages, classes or instructions, data structures or program statements. A code segment transmits and / or receives information, data arguments, variables or stored contents with other code segments or hardware circuits, thereby connecting the code segments with other code segments or hardware circuits .
ここで用いられるストレージ16は、さらに、ソリッドステートメモリ、磁気ディスクおよび光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができる。かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュール等のコンピュータ命令の適宜なセットまたはデータ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気および光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスクおよびブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)もしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体またはこれらいずれかの組合せが含まれる。メモリは、プロセッサまたはプロセッシングユニットの内部および/または外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性またはその他のメモリを意味する。つまり、「メモリ」は特定の種類および/または数に限定されない。また、記憶が格納される媒体の種類も限定されない。
The
1 電子機器
11 コントローラ
12 タイマー
13 カメラ
14 ディスプレイ
15 マイク
16 ストレージ
17 通信ユニット
18 近接センサ
19 UVセンサ
20 照度センサ
21 加速度センサ
22 地磁気センサ
23 気圧センサ
24 ジャイロセンサ
25 スピーカー
30 アイコン
140,141 選択ボタン
150 切替ボタン
160 通知バー
170 ピクト
180 光源用赤外LED
181 レンズ
SU,SR,SD,SL フォトダイオード
DESCRIPTION OF
181 Lens SU, SR, SD, SL Photodiode
Claims (6)
タッチパネルディスプレイと、
通信ユニットと、
前記近接センサによって検出されたジェスチャに基づいて自機器を使用している場合に、前記通信ユニットによって電話の着信を検出したときに前記タッチパネルディスプレイに接触して応答した場合は、前記近接センサによるジェスチャの検出をオフにするコントローラと、を備える電子機器。 A proximity sensor;
A touch panel display;
A communication unit;
When the device is used based on the gesture detected by the proximity sensor, when the incoming call is detected by the communication unit and the touch panel display is touched and responded, the gesture by the proximity sensor is used. And an electronic device comprising:
前記自機器を使用しているときに、料理のレシピを表示する、請求項1に記載の電子機器。 The controller is
The electronic device according to claim 1, wherein a recipe for cooking is displayed when the device is used.
前記近接センサによるジェスチャの検出がオンになると、前記タッチパネルディスプレイ上にピクトを表示し、
前記近接センサによるジェスチャの検出がオフになると、前記タッチパネルディスプレイ上にピクトを非表示にする、請求項1または2に記載の電子機器。 The controller is
When gesture detection by the proximity sensor is turned on, a pictograph is displayed on the touch panel display,
The electronic device according to claim 1, wherein when the detection of the gesture by the proximity sensor is turned off, the pictograph is not displayed on the touch panel display.
前記近接センサによって検出されたジェスチャに基づいて自機器を使用している場合に、前記通信ユニットによって電話の着信を検出したときに前記タッチパネルディスプレイに接触して応答した場合は、前記近接センサによるジェスチャの検出をオフにするステップ、を実行させるプログラム。 In an electronic device comprising a proximity sensor, a touch panel display, and a communication unit,
When the device is used based on the gesture detected by the proximity sensor, when the incoming call is detected by the communication unit and the touch panel display is touched and responded, the gesture by the proximity sensor is used. A program for executing a step of turning off detection.
前記近接センサによって検出されたジェスチャに基づいて自機器を使用している場合に、前記通信ユニットによって電話の着信を検出したときに前記タッチパネルディスプレイに接触して応答した場合は、前記近接センサによるジェスチャの検出をオフにするステップ、を含む制御方法。 A method for controlling an electronic device comprising a proximity sensor, a touch panel display, and a communication unit,
When the device is used based on the gesture detected by the proximity sensor, when the incoming call is detected by the communication unit and the touch panel display is touched and responded, the gesture by the proximity sensor is used. Turning off detection of the control method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017000234A JP6163274B1 (en) | 2017-01-04 | 2017-01-04 | Electronic device, program, and control method |
US15/855,425 US10775998B2 (en) | 2017-01-04 | 2017-12-27 | Electronic device and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017000234A JP6163274B1 (en) | 2017-01-04 | 2017-01-04 | Electronic device, program, and control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6163274B1 JP6163274B1 (en) | 2017-07-12 |
JP2018110330A true JP2018110330A (en) | 2018-07-12 |
Family
ID=59308981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017000234A Active JP6163274B1 (en) | 2017-01-04 | 2017-01-04 | Electronic device, program, and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6163274B1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005286809A (en) * | 2004-03-30 | 2005-10-13 | Sharp Corp | Portable information processing apparatus |
JP2012049952A (en) * | 2010-08-30 | 2012-03-08 | Fujitsu Toshiba Mobile Communications Ltd | Portable terminal |
JP2012095070A (en) * | 2010-10-27 | 2012-05-17 | Kyocera Corp | Mobile phone and control program therefor |
JP2013077925A (en) * | 2011-09-30 | 2013-04-25 | Sharp Corp | Electronic apparatus |
WO2014010272A1 (en) * | 2012-07-13 | 2014-01-16 | Necカシオモバイルコミュニケーションズ株式会社 | Communication device, control method therefor, and program |
JP2014175814A (en) * | 2013-03-08 | 2014-09-22 | Alpine Electronics Inc | On-vehicle electronic device, on-vehicle system, hands-free call program, and hands-free call method |
-
2017
- 2017-01-04 JP JP2017000234A patent/JP6163274B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005286809A (en) * | 2004-03-30 | 2005-10-13 | Sharp Corp | Portable information processing apparatus |
JP2012049952A (en) * | 2010-08-30 | 2012-03-08 | Fujitsu Toshiba Mobile Communications Ltd | Portable terminal |
JP2012095070A (en) * | 2010-10-27 | 2012-05-17 | Kyocera Corp | Mobile phone and control program therefor |
JP2013077925A (en) * | 2011-09-30 | 2013-04-25 | Sharp Corp | Electronic apparatus |
WO2014010272A1 (en) * | 2012-07-13 | 2014-01-16 | Necカシオモバイルコミュニケーションズ株式会社 | Communication device, control method therefor, and program |
JP2014175814A (en) * | 2013-03-08 | 2014-09-22 | Alpine Electronics Inc | On-vehicle electronic device, on-vehicle system, hands-free call program, and hands-free call method |
Also Published As
Publication number | Publication date |
---|---|
JP6163274B1 (en) | 2017-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10775998B2 (en) | Electronic device and control method | |
JP6293953B1 (en) | Electronic device, program, and control method | |
JP6091693B1 (en) | Electronics | |
JP6101881B1 (en) | Electronic device, program, and control method | |
US11269417B2 (en) | Electronic device configured to communicate with an intercom, and control method thereof | |
JP6163278B1 (en) | Electronic device, program, and control method | |
JP6374590B1 (en) | Electronic device, program, and control method | |
WO2018193876A1 (en) | Electronic device | |
JP6209699B1 (en) | Electronic device, program, and control method | |
JP2018181351A (en) | Electronic device | |
JP6235175B1 (en) | Electronic device, program, and control method | |
JP6546632B2 (en) | Electronic device, program and control method | |
US20180188817A1 (en) | Electronic device, computer-readable non-transitory recording medium, and control method | |
JP6113345B1 (en) | Electronics | |
JP6333461B1 (en) | Electronics | |
JP6173625B1 (en) | Electronic device, program, and control method | |
JP2018110370A (en) | Electronic device, program and control method | |
JP6163274B1 (en) | Electronic device, program, and control method | |
JP6346699B1 (en) | Electronics | |
JP2018109871A (en) | Electronic device | |
JP2019087036A (en) | Electronic apparatus, program, and control method | |
JP6637089B2 (en) | Electronic device, program and control method | |
JP2018109955A (en) | Electronic device, program and control method | |
JP2018109873A (en) | Electronic device, program and control method | |
JP2019149825A (en) | Electronic device, program, and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170522 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170616 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6163274 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |