JP6101881B1 - Electronic device, program, and control method - Google Patents

Electronic device, program, and control method Download PDF

Info

Publication number
JP6101881B1
JP6101881B1 JP2017000233A JP2017000233A JP6101881B1 JP 6101881 B1 JP6101881 B1 JP 6101881B1 JP 2017000233 A JP2017000233 A JP 2017000233A JP 2017000233 A JP2017000233 A JP 2017000233A JP 6101881 B1 JP6101881 B1 JP 6101881B1
Authority
JP
Japan
Prior art keywords
icon
gesture
electronic device
controller
proximity sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017000233A
Other languages
Japanese (ja)
Other versions
JP2018109872A (en
Inventor
恭平 鈴木
恭平 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017000233A priority Critical patent/JP6101881B1/en
Application granted granted Critical
Publication of JP6101881B1 publication Critical patent/JP6101881B1/en
Priority to US15/855,425 priority patent/US10775998B2/en
Publication of JP2018109872A publication Critical patent/JP2018109872A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】操作性を向上させた電子機器、プログラムおよび制御方法を提供する。【解決手段】近接センサ18と、所定のモードおよび近接センサ18によりジェスチャの検出を兼用するアイコンを表示するタッチパネルディスプレイ(ディスプレイ14)と、アイコンへの接触を検知すると、所定のモードの開始および近接センサ18によるジェスチャの検出を開始すると共に、アイコンの態様を変化させるコントローラ11と、を備える。また、コントローラ11はアイコンの色を変化させてもよい。また、コントローラ11はアイコンの形状を変化させてもよい。【選択図】図1An electronic device, a program, and a control method with improved operability are provided. A proximity sensor, a touch panel display (display 14) that displays an icon that also uses a predetermined mode and gesture detection by the proximity sensor 18, and detection of contact with the icon starts and closes a predetermined mode. And a controller 11 for starting detection of a gesture by the sensor 18 and changing an aspect of the icon. The controller 11 may change the color of the icon. The controller 11 may change the shape of the icon. [Selection] Figure 1

Description

本発明は、電子機器、プログラムおよび制御方法に関する。   The present invention relates to an electronic device, a program, and a control method.

例えばスマートフォンおよびタブレット端末等の電子機器は、一般にタッチパネルを備えている。ユーザは、このような電子機器を、タッチパネルに触れることで制御するのが一般的である。近年、ユーザが端末から離れて行うジェスチャを例えば赤外線センサ等の近接センサによって検出し、ジェスチャと対応する入力操作を実行する電子機器が知られている(例えば特許文献1)。   For example, electronic devices such as smartphones and tablet terminals generally include a touch panel. A user generally controls such an electronic device by touching a touch panel. 2. Description of the Related Art In recent years, an electronic device that detects a gesture performed by a user away from a terminal using a proximity sensor such as an infrared sensor and performs an input operation corresponding to the gesture is known (for example, Patent Document 1).

特開2015−225493号公報Japanese Patent Laying-Open No. 2015-225493

ここで、ユーザの特定の行動に対応したモード(例えば電車での移動に対応したマナーモード)が電子機器に備えられていることがある。しかし、ジェスチャによる入力操作が可能な電子機器であっても、ジェスチャによる入力操作とユーザの特定の行動に対応したモードとは全く別の設定項目として扱われることが多く、これらの関連付けは不十分であった。そのため、ジェスチャによる入力操作が可能な電子機器における操作性には改善の余地があった。   Here, a mode corresponding to a specific action of the user (for example, a manner mode corresponding to movement on a train) may be provided in the electronic device. However, even electronic devices that allow gesture input operations are often handled as completely different setting items for gesture input operations and modes corresponding to specific user actions, and their association is insufficient. Met. For this reason, there is room for improvement in operability in an electronic device in which an input operation by a gesture is possible.

かかる事情に鑑みてなされた本発明の目的は、操作性を向上させた電子機器、プログラムおよび制御方法を提供することにある。   An object of the present invention made in view of such circumstances is to provide an electronic device, a program, and a control method with improved operability.

本発明の実施形態に係る電子機器は、近接センサと、所定のモードおよび前記近接センサによりジェスチャの検出を兼用するアイコンを表示するタッチパネルディスプレイと、前記アイコンへの接触を検知すると、所定のモードの開始および前記近接センサによるジェスチャの検出を開始すると共に、アイコンの態様を変化させるコントローラと、を備える。   When an electronic device according to an embodiment of the present invention detects a proximity sensor, a touch panel display that displays a predetermined mode and an icon that also uses the proximity sensor to detect a gesture, and a contact with the icon, A controller for starting and detecting a gesture by the proximity sensor and changing an aspect of the icon.

本発明の実施形態に係るプログラムは、近接センサと、所定のモードおよび前記近接センサによりジェスチャの検出を兼用するアイコンを表示するタッチパネルディスプレイと、を備える電子機器に、前記アイコンへの接触を検知すると、所定のモードの開始および前記近接センサによるジェスチャの検出を開始すると共に、アイコンの態様を変化させるステップ、を実行させる。   When a program according to an embodiment of the present invention detects contact with the icon in an electronic device including a proximity sensor and a touch panel display that displays a predetermined mode and an icon that also uses the proximity sensor to detect a gesture. Starting the predetermined mode and detecting the gesture by the proximity sensor, and changing the mode of the icon.

本発明の実施形態に係る制御方法は、近接センサと、所定のモードおよび前記近接センサによりジェスチャの検出を兼用するアイコンを表示するタッチパネルディスプレイと、を備える電子機器の制御方法であって、前記アイコンへの接触を検知すると、所定のモードの開始および前記近接センサによるジェスチャの検出を開始すると共に、アイコンの態様を変化させるステップ、を含む。   A control method according to an embodiment of the present invention is a control method for an electronic device including a proximity sensor and a touch panel display that displays a predetermined mode and an icon that also uses the proximity sensor to detect a gesture. When the touch to is detected, a predetermined mode and a gesture detection by the proximity sensor are started, and the mode of the icon is changed.

本発明の一実施形態によれば、操作性を向上させた電子機器、プログラムおよび制御方法を提供することができる。   According to one embodiment of the present invention, it is possible to provide an electronic device, a program, and a control method with improved operability.

一実施形態に係る電子機器の概略構成図である。It is a schematic block diagram of the electronic device which concerns on one Embodiment. ユーザがジェスチャにより電子機器を操作する様子を例示する図である。It is a figure which illustrates a mode that a user operates an electronic device with gesture. 近接センサの概略構成図である。It is a schematic block diagram of a proximity sensor. 各赤外フォトダイオードが検出する検出値の推移を示す図である。It is a figure which shows transition of the detected value which each infrared photodiode detects. 電子機器をジェスチャで操作する状況を例示する図である。It is a figure which illustrates the condition of operating an electronic device with a gesture. 図6(a)〜図6(e)は電子機器の画面表示を例示する図である。FIG. 6A to FIG. 6E are diagrams illustrating screen displays of electronic devices. 図7(a)〜図7(e)はアイコンの態様を例示する図である。Fig.7 (a)-FIG.7 (e) are the figures which illustrate the aspect of an icon. 一実施形態に係る電子機器が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which the electronic device which concerns on one Embodiment performs.

(電子機器の構成)
図1に示すように一実施形態の電子機器1は、タイマー12と、カメラ13と、ディスプレイ14と、マイク15と、ストレージ16と、通信ユニット17と、スピーカー25と、近接センサ18(ジェスチャセンサ)と、コントローラ11と、を備える。電子機器1は、さらにUVセンサ19と、照度センサ20と、加速度センサ21と、地磁気センサ22と、気圧センサ23と、ジャイロセンサ24と、を備える。図1は例示である。電子機器1は図1に示す構成要素の全てを含まなくてもよい。また、電子機器1は図1に示す以外の構成要素を備えていてもよい。
(Configuration of electronic equipment)
As shown in FIG. 1, an electronic device 1 according to an embodiment includes a timer 12, a camera 13, a display 14, a microphone 15, a storage 16, a communication unit 17, a speaker 25, and a proximity sensor 18 (gesture sensor). ) And a controller 11. The electronic device 1 further includes a UV sensor 19, an illuminance sensor 20, an acceleration sensor 21, a geomagnetic sensor 22, an atmospheric pressure sensor 23, and a gyro sensor 24. FIG. 1 is an illustration. The electronic device 1 may not include all of the components shown in FIG. Further, the electronic device 1 may include components other than those shown in FIG.

タイマー12はコントローラ11からタイマー動作の指示を受け、所定時間経過した時点で、その旨を示す信号をコントローラ11に出力する。タイマー12は、図1に示すようにコントローラ11とは独立して設けられていてもよいし、コントローラ11が内蔵する構成であってもよい。   The timer 12 receives a timer operation instruction from the controller 11 and outputs a signal indicating that to the controller 11 when a predetermined time has elapsed. As shown in FIG. 1, the timer 12 may be provided independently of the controller 11, or may be configured to be built in the controller 11.

カメラ13は、電子機器1の周囲の被写体を撮像する。カメラ13は一例として、電子機器1のディスプレイ14が設けられる面に設けられるインカメラである。   The camera 13 images a subject around the electronic device 1. As an example, the camera 13 is an in-camera provided on a surface on which the display 14 of the electronic device 1 is provided.

ディスプレイ14は画面を表示する。画面は、例えば文字、画像、記号および図形等の少なくとも一つを含む。ディスプレイ14は、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro-Luminescence Panel)または無機ELパネル(Inorganic Electro-Luminescence Panel)等であってもよい。本実施形態において、ディスプレイ14はタッチパネルディスプレイ(タッチスクリーンディスプレイ)である。タッチパネルディスプレイは、指またはスタイラスペン等の接触を検出して、その接触位置を特定する。ディスプレイ14は、指またはスタイラスペン等が接触した位置を同時に複数検出することができる。   The display 14 displays a screen. The screen includes at least one of, for example, a character, an image, a symbol, and a graphic. The display 14 may be a liquid crystal display, an organic EL panel (Organic Electro-Luminescence Panel), an inorganic EL panel (Inorganic Electro-Luminescence Panel), or the like. In the present embodiment, the display 14 is a touch panel display (touch screen display). The touch panel display detects the contact of a finger or a stylus pen and specifies the contact position. The display 14 can simultaneously detect a plurality of positions touched by a finger or a stylus pen.

マイク15は、人が発する声を含む、電子機器1の周囲の音を検出する。   The microphone 15 detects sounds around the electronic device 1 including a voice uttered by a person.

ストレージ16は記憶部としてプログラムおよびデータを記憶する。ストレージ16は、コントローラ11の処理結果を一時的に記憶する。ストレージ16は、半導体記憶デバイスおよび磁気記憶デバイス等の任意の記憶デバイスを含んでよい。ストレージ16は、複数の種類の記憶デバイスを含んでよい。ストレージ16は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。   The storage 16 stores programs and data as a storage unit. The storage 16 temporarily stores the processing result of the controller 11. The storage 16 may include any storage device such as a semiconductor storage device and a magnetic storage device. The storage 16 may include a plurality of types of storage devices. The storage 16 may include a combination of a portable storage medium such as a memory card and a storage medium reading device.

ストレージ16に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとを含む。アプリケーションは、例えば、ジェスチャに応じた処理をコントローラ11に実行させる。制御プログラムは、例えば、OS(Operating System)である。アプリケーションおよび制御プログラムは、通信ユニット17による通信または記憶媒体を介してストレージ16にインストールされてもよい。   The programs stored in the storage 16 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application causes the controller 11 to execute processing according to the gesture. The control program is, for example, an OS (Operating System). The application and the control program may be installed in the storage 16 via communication by the communication unit 17 or via a storage medium.

通信ユニット17は、有線または無線により通信するためのインタフェースである。一実施形態の通信ユニット17によって行われる通信方式は無線通信規格である。例えば、無線通信規格は2G、3Gおよび4G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)およびPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)およびNFC(Near Field Communication)等を含む。通信ユニット17は、上述した通信規格の1つまたは複数をサポートすることができる。   The communication unit 17 is an interface for communicating by wire or wireless. The communication method performed by the communication unit 17 of one embodiment is a wireless communication standard. For example, the wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. For example, communication standards for cellular phones include LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (registered trademark) (Global System for Mobile communications) and PHS (PHS). Personal Handy-phone System). For example, wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and the like. The communication unit 17 can support one or more of the communication standards described above.

スピーカー25は音を出力する。例えば通話の際に、相手の声がスピーカー25から出力される。また、例えばニュースまたは天気予報等の読み上げの際に、その内容がスピーカー25から音で出力される。   The speaker 25 outputs sound. For example, the other party's voice is output from the speaker 25 during a call. For example, when reading out news or weather forecasts, the content is output from the speaker 25 as sound.

近接センサ18は、電子機器1の周囲の対象物との相対距離および対象物の移動方向等を非接触で検出する。本実施形態において、近接センサ18は1つの光源用赤外LED(Light Emitting Diode)と4つの赤外フォトダイオードとを有する。近接センサ18は、光源用赤外LEDから赤外光を対象物に向けて照射する。近接センサ18は、対象物からの反射光を赤外フォトダイオードの入射光とする。そして、近接センサ18は赤外フォトダイオードの出力電流に基づいて対象物との相対距離を測定することができる。また、近接センサ18は、対象物からの反射光がそれぞれの赤外フォトダイオードに入射する時間差により対象物の移動方向を検出する。したがって、近接センサ18は、電子機器1のユーザが電子機器1に触れずに行うエアジェスチャ(以下単に「ジェスチャ」という)を用いた操作を検出することができる。ここで、近接センサ18は可視光フォトダイオードを有していてもよい。   The proximity sensor 18 detects the relative distance to the objects around the electronic device 1 and the moving direction of the objects in a non-contact manner. In the present embodiment, the proximity sensor 18 includes one light source infrared LED (Light Emitting Diode) and four infrared photodiodes. The proximity sensor 18 irradiates the target with infrared light from the light source infrared LED. The proximity sensor 18 uses reflected light from the object as incident light of an infrared photodiode. The proximity sensor 18 can measure the relative distance to the object based on the output current of the infrared photodiode. Further, the proximity sensor 18 detects the moving direction of the object based on a time difference in which the reflected light from the object enters each infrared photodiode. Therefore, the proximity sensor 18 can detect an operation using an air gesture (hereinafter simply referred to as “gesture”) performed by the user of the electronic device 1 without touching the electronic device 1. Here, the proximity sensor 18 may have a visible light photodiode.

コントローラ11は、例えばCPU(Central Processing Unit)等のプロセッサである。コントローラ11は、他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってもよい。コントローラ11は、複数の集積回路を組み合わせて構成されてもよい。コントローラ11は、電子機器1の動作を統括的に制御して各種の機能を実現する。   The controller 11 is a processor such as a CPU (Central Processing Unit). The controller 11 may be an integrated circuit such as an SoC (System-on-a-Chip) in which other components are integrated. The controller 11 may be configured by combining a plurality of integrated circuits. The controller 11 controls various operations of the electronic device 1 to realize various functions.

具体的にはコントローラ11は、ストレージ16に記憶されているデータを必要に応じて参照する。コントローラ11は、ストレージ16に記憶されているプログラムに含まれる命令を実行してディスプレイ14等の他の機能部を制御することによって各種機能を実現する。例えばコントローラ11は、ユーザによる接触のデータをタッチパネルから取得する。例えばコントローラ11は、近接センサ18が検出したユーザのジェスチャに関する情報を取得する。例えばコントローラ11は、タイマー12からカウントダウンの残り時間(タイマー時間)等の情報を取得する。また、例えばコントローラ11は、アプリケーションの起動状況を把握する。   Specifically, the controller 11 refers to data stored in the storage 16 as necessary. The controller 11 implements various functions by executing instructions included in the program stored in the storage 16 and controlling other functional units such as the display 14. For example, the controller 11 acquires contact data from the user from the touch panel. For example, the controller 11 acquires information related to the user's gesture detected by the proximity sensor 18. For example, the controller 11 acquires information such as the remaining countdown time (timer time) from the timer 12. For example, the controller 11 grasps the activation status of the application.

UVセンサ19は、太陽光等に含まれる紫外線(Ultraviolet)量を測定することができる。   The UV sensor 19 can measure the amount of ultraviolet rays contained in sunlight or the like.

照度センサ20は、当該照度センサ20に入射する周囲光の照度を検出する。   The illuminance sensor 20 detects the illuminance of ambient light incident on the illuminance sensor 20.

加速度センサ21は、電子機器1に働く加速度の方向および大きさを検出する。加速度センサ21は、例えばx軸方向、y軸方向およびz軸方向の加速度を検出する3軸(3次元)タイプである。加速度センサ21は、例えばピエゾ抵抗型であってもよいし、静電容量型であってもよい。   The acceleration sensor 21 detects the direction and magnitude of acceleration acting on the electronic device 1. The acceleration sensor 21 is, for example, a three-axis (three-dimensional) type that detects acceleration in the x-axis direction, the y-axis direction, and the z-axis direction. The acceleration sensor 21 may be, for example, a piezoresistive type or a capacitance type.

地磁気センサ22は地磁気の向きを検出して、電子機器1の向きを測定可能にする。   The geomagnetic sensor 22 detects the direction of geomagnetism and makes it possible to measure the direction of the electronic device 1.

気圧センサ23は、電子機器1の外側の気圧(大気圧)を検出する。   The atmospheric pressure sensor 23 detects the atmospheric pressure (atmospheric pressure) outside the electronic device 1.

ジャイロセンサ24は、電子機器1の角速度を検出する。コントローラ11は、ジャイロセンサ24により取得された角速度を時間積分することにより、電子機器1の向きの変化を測定することができる。   The gyro sensor 24 detects the angular velocity of the electronic device 1. The controller 11 can measure the change in the orientation of the electronic device 1 by time-integrating the angular velocity acquired by the gyro sensor 24.

(ジェスチャによる電子機器の操作)
図2は、ユーザがジェスチャにより電子機器1を操作する様子を示す。図2において、電子機器1は一例としてスタンドによって支持される。代替例として電子機器1は壁に立てかけられたり、テーブルに置かれたりしてもよい。近接センサ18がユーザのジェスチャを検出すると、コントローラ11は検出されたジェスチャに基づく処理を行う。図2の例では、ジェスチャに基づく処理はレシピが表示されている画面のスクロールである。例えば、ユーザが電子機器1の長手方向上方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が上方へとスクロールする。また、例えば、ユーザが電子機器1の長手方向下方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が下方へとスクロールする。
(Operating electronic devices using gestures)
FIG. 2 shows a state in which the user operates the electronic device 1 with a gesture. In FIG. 2, the electronic device 1 is supported by a stand as an example. As an alternative example, the electronic device 1 may be leaned against a wall or placed on a table. When the proximity sensor 18 detects a user gesture, the controller 11 performs processing based on the detected gesture. In the example of FIG. 2, the process based on the gesture is scrolling of the screen on which the recipe is displayed. For example, when the user performs a gesture of moving his / her hand upward in the longitudinal direction of the electronic device 1, the screen scrolls upward in conjunction with the movement of the user's hand. Further, for example, when the user performs a gesture of moving the hand downward in the longitudinal direction of the electronic device 1, the screen scrolls downward in conjunction with the movement of the user's hand.

図2に示す電子機器1はスマートフォンである。代替例として電子機器1は例えば、携帯電話端末、ファブレット、タブレットPCまたはフィーチャーフォン等でもよい。また、電子機器1は、上記のものに限定されず、例えば、PDA、リモコン端末、携帯音楽プレイヤー、ゲーム機、電子書籍リーダ、カーナビゲーション、家電製品または産業用機器(FA機器)等でもよい。   The electronic device 1 shown in FIG. 2 is a smartphone. As an alternative example, the electronic device 1 may be, for example, a mobile phone terminal, a Fablet, a tablet PC, or a feature phone. Further, the electronic device 1 is not limited to the above, and may be, for example, a PDA, a remote control terminal, a portable music player, a game machine, an electronic book reader, a car navigation, a home appliance, or an industrial device (FA device).

(ジェスチャを検出する手法)
ここで、図3および図4を参照しながら、コントローラ11が近接センサ18の出力に基づいてユーザのジェスチャを検出する手法を説明する。図3は、電子機器1を正面から見たときの近接センサ18の構成例を示す図である。近接センサ18は、光源用赤外LED180と、4つの赤外フォトダイオードSU,SR,SDおよびSLと、を有する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181を介して検出対象物からの反射光を検出する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181の中心から見て対称的に配置されている。ここで、図3に示される仮想線D1は電子機器1の長手方向と略平行であるとする。図3の仮想線D1上に、赤外フォトダイオードSUと赤外フォトダイオードSDとが離れて配置されている。そして、図3の仮想線D1の方向において、赤外フォトダイオードSRおよびSLは、赤外フォトダイオードSUと赤外フォトダイオードSDとの間に配置されている。
(Method for detecting gestures)
Here, a method in which the controller 11 detects a user gesture based on the output of the proximity sensor 18 will be described with reference to FIGS. 3 and 4. FIG. 3 is a diagram illustrating a configuration example of the proximity sensor 18 when the electronic apparatus 1 is viewed from the front. The proximity sensor 18 includes a light source infrared LED 180 and four infrared photodiodes SU, SR, SD, and SL. The four infrared photodiodes SU, SR, SD, and SL detect reflected light from the detection target via the lens 181. The four infrared photodiodes SU, SR, SD, and SL are arranged symmetrically when viewed from the center of the lens 181. Here, it is assumed that the virtual line D <b> 1 shown in FIG. 3 is substantially parallel to the longitudinal direction of the electronic device 1. On the virtual line D1 in FIG. 3, the infrared photodiode SU and the infrared photodiode SD are arranged apart from each other. In the direction of the imaginary line D1 in FIG. 3, the infrared photodiodes SR and SL are arranged between the infrared photodiode SU and the infrared photodiode SD.

図4は、4つの赤外フォトダイオードSU,SR,SDおよびSLの検出対象物(例えばユーザの手等)が、図3の仮想線D1の方向に沿って移動したときの検出値の推移を例示する。ここで、仮想線D1の方向において、赤外フォトダイオードSUと赤外フォトダイオードSDとが最も離れている。そのため、図4に示すように、赤外フォトダイオードSUの検出値(破線)の変化(例えば上昇)と、赤外フォトダイオードSDの検出値(細い実線)の同じ変化(例えば上昇)との時間差が最も大きい。コントローラ11は、フォトダイオードSU,SR,SDおよびSLの検出値の所定の変化の時間差を把握することによって、検出対象物の移動方向を判定できる。   FIG. 4 shows the transition of the detection value when the detection objects (for example, the user's hand) of the four infrared photodiodes SU, SR, SD, and SL move along the direction of the virtual line D1 in FIG. Illustrate. Here, the infrared photodiode SU is farthest from the infrared photodiode SD in the direction of the virtual line D1. Therefore, as shown in FIG. 4, the time difference between the change (for example, increase) in the detection value (broken line) of the infrared photodiode SU and the same change (for example, increase) in the detection value (thin solid line) of the infrared photodiode SD. Is the largest. The controller 11 can determine the moving direction of the detection object by grasping the time difference of the predetermined change in the detection values of the photodiodes SU, SR, SD, and SL.

コントローラ11は、近接センサ18からフォトダイオードSU,SR,SDおよびSLの検出値を取得する。そして、コントローラ11は、例えば検出対象物の仮想線D1の方向への移動を把握するために、フォトダイオードSDの検出値からフォトダイオードSUの検出値を減算した値を所定の時間で積分してもよい。図4の例では、領域R41およびR42において積分値は非ゼロの値となる。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1の方向における検出対象物の移動を把握できる。   The controller 11 acquires the detection values of the photodiodes SU, SR, SD, and SL from the proximity sensor 18. Then, the controller 11 integrates, for a predetermined time, a value obtained by subtracting the detection value of the photodiode SU from the detection value of the photodiode SD in order to grasp the movement of the detection object in the direction of the virtual line D1, for example. Also good. In the example of FIG. 4, the integral value is a non-zero value in the regions R41 and R42. From the change in the integrated value (for example, change in positive value, zero, and negative value), the controller 11 can grasp the movement of the detection target in the direction of the virtual line D1.

また、コントローラ11は、フォトダイオードSLの検出値からフォトダイオードSRの検出値を減算した値を所定の時間で積分してもよい。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1に直交する方向(電子機器1の短手方向に略平行な方向)における検出対象物の移動を把握できる。   Further, the controller 11 may integrate a value obtained by subtracting the detection value of the photodiode SR from the detection value of the photodiode SL in a predetermined time. From this change in integral value (for example, a change in positive value, zero, or negative value), the controller 11 moves the detection target in a direction orthogonal to the virtual line D1 (a direction substantially parallel to the short direction of the electronic device 1). Can be grasped.

代替例として、コントローラ11はフォトダイオードSU,SR,SDおよびSLの全ての検出値を用いて演算を行ってもよい。すなわち、コントローラ11は検出対象物の移動方向を、電子機器1の長手方向および短手方向の成分に分離して演算することなく把握してもよい。   As an alternative example, the controller 11 may perform calculation using all detection values of the photodiodes SU, SR, SD, and SL. That is, the controller 11 may grasp the moving direction of the detection target without calculating the components in the longitudinal direction and the short direction of the electronic device 1.

検出されるジェスチャは例えば、左右のジェスチャ、上下のジェスチャ、斜めのジェスチャ、時計回りで円を描くジェスチャ、および反時計回りで円を描くジェスチャ等である。例えば左右へのジェスチャとは、電子機器1の短手方向と略平行な方向に行われるジェスチャである。上下のジェスチャとは、電子機器1の長手方向と略平行な方向に行われるジェスチャである。斜めのジェスチャとは、電子機器1と略平行な平面において、電子機器1の長手方向と短手方向とのいずれとも平行でない方向に行われるジェスチャである。   The detected gestures include, for example, left and right gestures, up and down gestures, diagonal gestures, gestures that draw a circle in a clockwise direction, and gestures that draw a circle in a counterclockwise direction. For example, the right and left gesture is a gesture performed in a direction substantially parallel to the short direction of the electronic device 1. The upper and lower gestures are gestures performed in a direction substantially parallel to the longitudinal direction of the electronic device 1. The oblique gesture is a gesture performed in a direction that is not parallel to either the longitudinal direction or the short direction of the electronic device 1 on a plane substantially parallel to the electronic device 1.

(キッチンモード)
図5は、ユーザがジェスチャにより電子機器1を操作する状況の一例を示す。図5の例で、ユーザは料理のレシピを電子機器1のディスプレイ14に表示しながら、キッチンでレシピに従って料理をしている。このとき、近接センサ18はユーザのジェスチャを検出する。そして、コントローラ11は近接センサ18が検出したジェスチャに基づく処理を行う。例えば、コントローラ11は特定のジェスチャ(例えばユーザが手を上下に動かすジェスチャ)に応じてレシピをスクロールする処理が可能である。料理中は、ユーザの手が汚れたり、濡れたりすることがある。しかし、ユーザは電子機器1に触れることなくレシピをスクロールすることができる。したがって、ディスプレイ14が汚れること、および料理中のユーザの手にディスプレイ14の汚れがうつることを回避できる。
(Kitchen mode)
FIG. 5 shows an example of a situation where the user operates the electronic device 1 with a gesture. In the example of FIG. 5, the user is cooking according to the recipe in the kitchen while displaying the cooking recipe on the display 14 of the electronic device 1. At this time, the proximity sensor 18 detects a user's gesture. Then, the controller 11 performs processing based on the gesture detected by the proximity sensor 18. For example, the controller 11 can perform a process of scrolling the recipe according to a specific gesture (for example, a gesture in which the user moves the hand up and down). During cooking, the user's hand may become dirty or wet. However, the user can scroll the recipe without touching the electronic device 1. Therefore, it is possible to avoid the display 14 from becoming dirty and the stain of the display 14 from being transferred to the user's hand during cooking.

ここで、電子機器1はモードを複数有する。モードとは電子機器1の全体の動作について制限等を与える動作モード(動作状態または動作状況)を意味する。モードは同時に1つだけ選択可能である。本実施形態において、電子機器1のモードは第1モードおよび第2モードを含む。第1モードは、例えばキッチン以外の部屋および外出先等での使用に適している通常の動作モード(通常モード)である。第2モードは、キッチンでレシピを表示しながら料理を行うのに最適な電子機器1の動作モード(キッチンモード)である。上記で説明したように、第2モードの場合には、ジェスチャによる入力操作が可能であることが好ましい。つまり、電子機器1のモードが第2モードに切り替わる場合には、連動して近接センサ18を動作させてジェスチャを検出可能にすることが好ましい。本実施形態の電子機器1は、以下に説明するユーザインターフェースを備えることによって、第2モード(キッチンモード)への切り替えと近接センサ18の動作とを連動させることが可能である。   Here, the electronic device 1 has a plurality of modes. The mode means an operation mode (an operation state or an operation state) that restricts the overall operation of the electronic device 1. Only one mode can be selected at a time. In the present embodiment, the mode of the electronic device 1 includes a first mode and a second mode. The first mode is a normal operation mode (normal mode) that is suitable for use in a room other than the kitchen and a place where the user is out. The second mode is an operation mode (kitchen mode) of the electronic device 1 that is optimal for cooking while displaying a recipe in the kitchen. As described above, in the second mode, it is preferable that an input operation by a gesture is possible. That is, when the mode of the electronic device 1 is switched to the second mode, it is preferable to operate the proximity sensor 18 in conjunction with the gesture so that the gesture can be detected. The electronic device 1 according to the present embodiment includes a user interface described below, and can switch the switching to the second mode (kitchen mode) and the operation of the proximity sensor 18.

(画面表示例)
図6(a)〜図6(e)は本実施形態に係る電子機器1のディスプレイ14に表示される画面例を示す。上記のように、電子機器1は第1モード(通常モード)に加えて、キッチンでレシピを表示しながら料理を行うのに最適な第2モード(キッチンモード)を有する。図6(a)および図6(b)の画面表示のとき、電子機器1は第1モード(通常モード)で動作する。図6(c)、図6(d)および図6(e)の画面表示のとき、電子機器1は第2モード(キッチンモード)で動作する。
(Example of screen display)
6A to 6E show examples of screens displayed on the display 14 of the electronic apparatus 1 according to this embodiment. As described above, in addition to the first mode (normal mode), the electronic device 1 has a second mode (kitchen mode) that is optimal for cooking while displaying the recipe in the kitchen. 6A and 6B, the electronic apparatus 1 operates in the first mode (normal mode). At the time of the screen display of FIG. 6C, FIG. 6D, and FIG. 6E, the electronic device 1 operates in the second mode (kitchen mode).

図6(a)は、選択ボタン140および選択ボタン141を含む画面例である。ユーザは、選択ボタン140または選択ボタン141をタップすることによってレシピの検索画面を表示させる。そして、ユーザは検索結果であるレシピを表示させることができる。   FIG. 6A shows an example of a screen including a selection button 140 and a selection button 141. The user displays the recipe search screen by tapping the selection button 140 or the selection button 141. And the user can display the recipe which is a search result.

選択ボタン140は、ユーザがWebブラウザを利用してレシピを検索して、検索結果であるレシピを表示させる場合に選択される。選択ボタン141は、ユーザが専用のアプリケーションを利用してレシピを検索して、検索結果であるレシピを表示させる場合に選択される。ここで、専用のアプリケーションは、インターネット経由でサーバにアクセスしてレシピのデータを取得できるが、既にいくつかのレシピのデータを電子機器1のストレージ16に記憶している。ユーザは、例えば通信速度が遅い環境にいる場合でも、選択ボタン141を選択することによって、専用のアプリケーションを使って素早くストレージ16に記憶されたレシピの検索および表示が可能である。   The selection button 140 is selected when a user searches for a recipe using a Web browser and displays a recipe as a search result. The selection button 141 is selected when a user searches for a recipe using a dedicated application and displays a recipe as a search result. Here, the dedicated application can obtain the recipe data by accessing the server via the Internet, but some recipe data is already stored in the storage 16 of the electronic device 1. For example, even when the user is in an environment where the communication speed is low, by selecting the selection button 141, the user can quickly search and display the recipe stored in the storage 16 using a dedicated application.

図6(b)は、ユーザが選択ボタン140または選択ボタン141をタップしてWebブラウザまたは専用のアプリケーションでレシピを検索した後に、検索結果であるレシピを表示させたときの画面例である。図6(b)の画面では、レシピに重ねてアイコン30が表示されている。アイコン30は、2つの円が、一部が重なるように連結された形状をしている。アイコン30の一方の円は、他方の円よりもやや大きい。アイコン30の大きい方の円の内部には鍋の絵が描かれている。コントローラ11は、アイコン30がユーザによってタップされたことを検知すると第1モードと第2モードとを切り替える。図6(b)の画面を表示しているとき、電子機器1は第1モード(通常モード)で動作している。ユーザがアイコン30をタップすると、電子機器1のモードは第2モード(キッチンモード)に切り替わる。また、電子機器1が第2モードで動作しているときに、ユーザがアイコン30をタップすると、電子機器1のモードは第1モードに切り替わる。   FIG. 6B shows an example of a screen when the user taps the selection button 140 or the selection button 141 to search for a recipe using a Web browser or a dedicated application, and then displays a recipe as a search result. In the screen of FIG. 6B, an icon 30 is displayed over the recipe. The icon 30 has a shape in which two circles are connected so that a part thereof overlaps. One circle of the icon 30 is slightly larger than the other circle. A pot picture is drawn inside the larger circle of the icon 30. When the controller 11 detects that the icon 30 has been tapped by the user, the controller 11 switches between the first mode and the second mode. When the screen of FIG. 6B is displayed, the electronic device 1 is operating in the first mode (normal mode). When the user taps the icon 30, the mode of the electronic device 1 is switched to the second mode (kitchen mode). When the user taps the icon 30 while the electronic device 1 is operating in the second mode, the mode of the electronic device 1 is switched to the first mode.

図6(c)は、ユーザがアイコン30をタップして、電子機器1のモードが第2モード(キッチンモード)に切り替わったときの画面例である。このとき、電子機器1は近接センサ18を動作させて、ユーザのジェスチャを検出可能にする。ディスプレイ14に表示されるアイコン30は、キッチンモードおよび近接センサ18によりジェスチャの検出を兼用するアイコンである。また、コントローラ11は、アイコン30への接触を検知すると、キッチンモードの開始および近接センサ18によるジェスチャの検出を開始すると共に、アイコン30の態様を変化させる。図6(c)の例では、コントローラ11はアイコン30の色を変化させる。アイコン30の2つの円の内部は白色から黒色へと変化している。また、コントローラ11はアイコン30の形状を変化させる。アイコン30の鍋の絵は、蓋が閉じていた状態から開いた状態へと変化している。別の例として、コントローラ11は、アイコン30への接触を検知すると、アイコン30の輪郭の形状を変化させてもよい。また、別の例として、コントローラ11はアイコン30の色だけを変化させてもよい。また、別の例として、コントローラ11はアイコン30の形状だけを変化させてもよい。ユーザは、ディスプレイ14に表示されるアイコン30の態様の変化によって、電子機器1が第2モードであって、かつ、近接センサ18によってジェスチャが検出されることを容易に把握できる。   FIG. 6C is a screen example when the user taps the icon 30 and the mode of the electronic device 1 is switched to the second mode (kitchen mode). At this time, the electronic device 1 operates the proximity sensor 18 to detect the user's gesture. The icon 30 displayed on the display 14 is an icon that combines detection of a gesture by the kitchen mode and the proximity sensor 18. When the controller 11 detects contact with the icon 30, the controller 11 starts the kitchen mode and starts detecting the gesture by the proximity sensor 18, and changes the mode of the icon 30. In the example of FIG. 6C, the controller 11 changes the color of the icon 30. The inside of the two circles of the icon 30 changes from white to black. In addition, the controller 11 changes the shape of the icon 30. The pot picture of the icon 30 changes from a closed state to an open state. As another example, the controller 11 may change the outline shape of the icon 30 when detecting contact with the icon 30. As another example, the controller 11 may change only the color of the icon 30. As another example, the controller 11 may change only the shape of the icon 30. The user can easily grasp that the electronic device 1 is in the second mode and the gesture is detected by the proximity sensor 18 by the change in the mode of the icon 30 displayed on the display 14.

図6(d)は、ユーザのジェスチャに応じて、レシピが表示されている画面がスクロールした様子を示す。コントローラ11は、近接センサ18によって検出されたユーザの第1のジェスチャ(例えば手を上下方向に移動させるジェスチャ)に基づいて、画面をスクロールさせる操作を行う。図6(d)の例では、ユーザの手を上方向に移動させるジェスチャに基づいて、画面全体が上方向へと移動している。   FIG. 6D shows a state where the screen on which the recipe is displayed is scrolled according to the user's gesture. The controller 11 performs an operation of scrolling the screen based on the first gesture of the user detected by the proximity sensor 18 (for example, a gesture for moving the hand up and down). In the example of FIG. 6D, the entire screen is moved upward based on a gesture for moving the user's hand upward.

図6(e)は、ユーザのジェスチャに応じて、タイマー画面が表示された様子を示す。コントローラ11は、近接センサ18によって検出されたユーザの第2のジェスチャ(例えば手を1秒等の所定時間かざすジェスチャ)に基づいて、レシピの表示をタイマー画面の表示に切り替える。ここで、図6(e)の例では、図6(c)の画面から切り替わっているが、図6(d)の画面からタイマー画面の表示に切り替えることも可能である。   FIG. 6E shows a state in which the timer screen is displayed according to the user's gesture. The controller 11 switches the recipe display to the timer screen display based on the user's second gesture detected by the proximity sensor 18 (for example, a gesture of holding a hand for a predetermined time such as 1 second). Here, in the example of FIG. 6E, the screen is switched from the screen of FIG. 6C, but it is also possible to switch from the screen of FIG. 6D to the display of the timer screen.

(アイコンの拡大縮小)
ここで、第2モード(キッチンモード)において、アイコン30が表示されているレシピの一部を隠してしまう可能性がある(例えば図6(d)参照)。コントローラ11は、近接センサ18によって検出されたジェスチャ(例えば上記第1のジェスチャおよび第2のジェスチャ)に基づいて操作(例えば画面のスクロールおよびタイマー画面の表示)をしている場合に、検出されたジェスチャとは異なるジェスチャが検出されると、アイコン30を拡大表示または縮小表示させてもよい。ここで、異なるジェスチャは、例えば手を左右方向に移動させるジェスチャである。コントローラ11は、例えば近接センサ18が手を左から右へと移動させるジェスチャを検出すると、アイコン30を図7(a)のアイコン30Aの形態に変化させる。そして、コントローラ11は、例えば近接センサ18が手を右から左へと移動させるジェスチャを検出すると、図7(a)のアイコン30Aの形態からアイコン30へと戻す。図7(a)のアイコン30Aは、アイコン30と形状が異なり、かつ、サイズも小さい。つまり、アイコン30を図7(a)のアイコン30Aの形態に変化させることは縮小表示に対応する。また、図7(a)のアイコン30Aの形態からアイコン30へと戻すことは拡大表示に対応する。ユーザはジェスチャによってアイコン30を縮小表示することによって、レシピを読みやすくすることができる。ここで、別の例として、アイコン30は形状が同じまま(2つの円の一部が重なるように連結された形状のまま)でサイズだけを変化させる拡大縮小表示を行ってもよい。
(Icon scaling)
Here, in the second mode (kitchen mode), there is a possibility that a part of the recipe on which the icon 30 is displayed is hidden (for example, see FIG. 6D). The controller 11 is detected when an operation (for example, scrolling the screen and displaying a timer screen) is performed based on the gesture (for example, the first gesture and the second gesture described above) detected by the proximity sensor 18. When a gesture different from the gesture is detected, the icon 30 may be enlarged or reduced. Here, the different gesture is, for example, a gesture for moving the hand in the left-right direction. For example, when the proximity sensor 18 detects a gesture that moves the hand from left to right, the controller 11 changes the icon 30 to the form of the icon 30A in FIG. Then, for example, when the proximity sensor 18 detects a gesture that moves the hand from right to left, the controller 11 returns the icon 30A from the form of the icon 30A of FIG. The icon 30A in FIG. 7A is different from the icon 30 in shape and is small in size. That is, changing the icon 30 to the form of the icon 30A in FIG. 7A corresponds to reduced display. Returning from the form of the icon 30A in FIG. 7A to the icon 30 corresponds to an enlarged display. The user can make the recipe easier to read by reducing the icon 30 by gesture. Here, as another example, the icon 30 may be displayed in an enlarged / reduced manner in which only the size is changed while the shape remains the same (the shape is such that two circles are partially overlapped).

(アイコンのタイマー動作との連動)
タイマー画面(図6(e)参照)がディスプレイ14に表示されている場合に、コントローラ11は、近接センサ18によって検出されたジェスチャ基づいてタイマー操作を実行する。コントローラ11は、近接センサ18によって検出されたユーザの第1のジェスチャ(例えば手を上下方向に移動させるジェスチャ)に基づいて、タイマー時間を調整する。コントローラ11は、例えば近接センサ18が手を下から上へと移動させるジェスチャを1回検出すると、タイマー時間を1分加える。また、コントローラ11は、例えば近接センサ18が手を上から下へと移動させるジェスチャを1回検出すると、タイマー時間を1分減じる。また、コントローラ11は、近接センサ18によって検出されたユーザの第2のジェスチャ(例えば手を1秒等の所定時間かざすジェスチャ)に基づいて、タイマー画面を隠して(非表示にして)レシピを再表示する。また、コントローラ11は、近接センサ18によって検出された別のジェスチャ(例えば手を左から右へと移動させるジェスチャ)に基づいてタイマーを実行させる(カウントダウンを開始させる)。
(Linked with icon timer operation)
When the timer screen (see FIG. 6E) is displayed on the display 14, the controller 11 performs a timer operation based on the gesture detected by the proximity sensor 18. The controller 11 adjusts the timer time based on the first user gesture (for example, a gesture for moving the hand up and down) detected by the proximity sensor 18. For example, when the proximity sensor 18 detects a gesture for moving the hand from the bottom to the top once, the controller 11 adds one minute to the timer time. For example, when the proximity sensor 18 detects a gesture that moves the hand from top to bottom once, the controller 11 decreases the timer time by one minute. In addition, the controller 11 hides (hides) the timer screen based on the user's second gesture detected by the proximity sensor 18 (for example, a gesture in which the hand is held for a predetermined time such as 1 second) and restarts the recipe. indicate. Further, the controller 11 executes a timer (starts a countdown) based on another gesture detected by the proximity sensor 18 (for example, a gesture for moving the hand from left to right).

本実施形態において、コントローラ11は、タイマーが実行された場合に、タイマーの状態に応じてアイコン30の態様を変化させる。図7(b)に示すように、アイコン30は鍋の絵が描かれた円の領域30Bと、それに連結した円の領域30Cとで構成される。コントローラ11は、タイマーが実行された場合に、アイコン30の領域30Cにタイマー時間を表示する。ここで、領域30Cはタイマー時間を完全に表示するには大きさが十分でない可能性がある。本実施形態において、コントローラ11は、タイマー時間が10分を超える場合に、図7(b)に示すように「10+min」と表示する。コントローラ11は、タイマー時間が10分以下かつ5分を超える場合に「10min」と表示する。コントローラ11は、タイマー時間が5分以下かつ3分を超える場合に「5min」と表示する。コントローラ11は、同様の規則で「3min」「1min」「30sec」と表示する。このアイコン30の表示により、ユーザはタイマー画面を隠した場合でも、レシピと共に表示されたアイコン30によって大まかなタイマーの残り時間を知ることができる。ここで、コントローラ11は、タイマーの状態に応じてアイコン30を点滅させてもよい。例えば図7(c)に示すように、タイマー時間が30秒以下となった場合にアイコン30を点滅させて、残り時間が少ないことを知らせてもよい。   In this embodiment, the controller 11 changes the aspect of the icon 30 according to the state of the timer when the timer is executed. As shown in FIG. 7B, the icon 30 includes a circle area 30B on which a picture of a pot is drawn and a circle area 30C connected thereto. The controller 11 displays the timer time in the area 30C of the icon 30 when the timer is executed. Here, the area 30C may not be large enough to completely display the timer time. In the present embodiment, the controller 11 displays “10 + min” as shown in FIG. 7B when the timer time exceeds 10 minutes. The controller 11 displays “10 min” when the timer time is 10 minutes or less and exceeds 5 minutes. The controller 11 displays “5 min” when the timer time is 5 minutes or less and exceeds 3 minutes. The controller 11 displays “3 min”, “1 min”, and “30 sec” according to the same rule. By displaying the icon 30, the user can know the approximate remaining time of the timer by the icon 30 displayed together with the recipe even when the timer screen is hidden. Here, the controller 11 may blink the icon 30 according to the state of the timer. For example, as shown in FIG. 7C, when the timer time becomes 30 seconds or less, the icon 30 may be blinked to notify that the remaining time is short.

ここで、本実施形態において、アイコン30の領域30Bの色の変化と、領域30Cの色の変化とは連動する。例えば、ユーザがアイコン30をタップして電子機器1のモードが第2モード(キッチンモード)に切り替わる際に、タイマーが実行されているか否かに関係なく領域30Bおよび領域30Cは黒色へと変化する。しかし、別の実施形態として、図7(d)に示すように、電子機器1が第2モードに切り替わってもタイマーが実行されていない場合には、領域30Cは白色のままであってもよい。   Here, in the present embodiment, the color change of the region 30B of the icon 30 and the color change of the region 30C are linked. For example, when the user taps the icon 30 and the mode of the electronic device 1 is switched to the second mode (kitchen mode), the regions 30B and 30C change to black regardless of whether or not the timer is executed. . However, as another embodiment, as shown in FIG. 7D, when the electronic device 1 is switched to the second mode and the timer is not executed, the region 30C may remain white. .

また、別の実施形態として、タイマーが実行される場合には、電子機器1のモードに関わらず領域30Cは黒色へ変化してタイマー時間を表示してもよい。例えば、図7(e)に示すように、コントローラ11は、アイコン30の領域30Cがユーザによってタップされたことを検知すると、電子機器1のモードを第1モード(通常モード)から変更することなく、タイマーを実行させてもよい。このとき、アイコン30の領域30Bは色も形状も変化せず、領域30Cの色だけが変化する。そして、領域30Cにはタイマー時間が表示される。   As another embodiment, when the timer is executed, the region 30C may change to black regardless of the mode of the electronic device 1 and display the timer time. For example, as shown in FIG. 7E, when the controller 11 detects that the area 30C of the icon 30 has been tapped by the user, the controller 11 does not change the mode of the electronic device 1 from the first mode (normal mode). A timer may be executed. At this time, the area 30B of the icon 30 does not change in color or shape, and only the color of the area 30C changes. The timer time is displayed in the area 30C.

(フローチャート)
図8は、本実施形態に係る電子機器1のコントローラ11が実行する処理(制御方法)の一例を示すフローチャートである。最初に電子機器1は第1モード(通常モード)で動作している。
(flowchart)
FIG. 8 is a flowchart illustrating an example of processing (control method) executed by the controller 11 of the electronic apparatus 1 according to the present embodiment. Initially, the electronic device 1 operates in the first mode (normal mode).

コントローラ11は、ディスプレイ14がユーザによるアイコン30への接触を検知するまで待機する(ステップS1のNo)。コントローラ11は、ディスプレイ14がユーザによるアイコン30への接触を検知した場合に(ステップS1のYes)、所定のモード(第2モード、つまりキッチンモード)に設定して近接センサ18によるジェスチャの検出を開始すると共にアイコン30の態様を変化させる(ステップS2)。本実施形態において、アイコン30の態様の変化は、例えば図6(b)および図6(c)に示すように、色および形状の変化である。   The controller 11 waits until the display 14 detects contact with the icon 30 by the user (No in step S1). When the display 14 detects that the user has touched the icon 30 (Yes in step S1), the controller 11 sets the predetermined mode (second mode, that is, the kitchen mode) and detects the gesture by the proximity sensor 18. At the same time, the mode of the icon 30 is changed (step S2). In this embodiment, the change of the aspect of the icon 30 is a change of a color and a shape, for example, as shown in FIG.6 (b) and FIG.6 (c).

コントローラ11は、近接センサ18がタイマーと関連付けられたジェスチャを検知しない場合に、ステップS7の処理に進む(ステップS3のNo)。コントローラ11は、近接センサ18がタイマーと関連付けられたジェスチャを検知した場合に(ステップS3のYes)、タイマーを実行させる(ステップS4)。ここで、タイマーと関連付けられたジェスチャは、タイマー画面がディスプレイ14に表示されている場合にユーザが行う、タイマーの実行指示およびタイマー時間の調整等のジェスチャである。   When the proximity sensor 18 does not detect the gesture associated with the timer, the controller 11 proceeds to the process of step S7 (No in step S3). When the proximity sensor 18 detects a gesture associated with the timer (Yes in step S3), the controller 11 causes the timer to be executed (step S4). Here, the gesture associated with the timer is a gesture such as a timer execution instruction and a timer time adjustment performed by the user when the timer screen is displayed on the display 14.

コントローラ11はタイマーの状態に応じてアイコン30の態様を変化させる(ステップS5)。つまり、コントローラ11はタイマー時間に応じて、アイコン30の領域30Cにタイマー時間を表示する。コントローラ11は、タイマーのカウントダウンが終了するまでステップS5の処理を続ける(ステップS6のNo)。コントローラ11はタイマーのカウントダウンが終了するとステップS7の処理に進む(ステップS6のYes)。   The controller 11 changes the aspect of the icon 30 according to the state of the timer (step S5). That is, the controller 11 displays the timer time in the area 30C of the icon 30 according to the timer time. The controller 11 continues the process of step S5 until the timer countdown ends (No in step S6). When the timer 11 finishes counting down, the controller 11 proceeds to the process of step S7 (Yes in step S6).

コントローラ11は、近接センサ18がアイコン30の拡大縮小と関連付けられたジェスチャを検知した場合に(ステップS7のYes)、現在の態様と異なるようにアイコン30を拡大表示または縮小表示する(ステップS8)。ここで、拡大縮小と関連付けられたジェスチャは、例えば手を左右方向に移動させるジェスチャである。コントローラ11は、ステップS8の後に、および、近接センサ18がアイコン30の拡大縮小と関連付けられたジェスチャを検知しない場合に(ステップS7のNo)、ステップS9の処理に進む。   When the proximity sensor 18 detects a gesture associated with the enlargement / reduction of the icon 30 (Yes in step S7), the controller 11 enlarges or reduces the icon 30 so as to be different from the current mode (step S8). . Here, the gesture associated with the enlargement / reduction is, for example, a gesture for moving the hand in the left-right direction. The controller 11 proceeds to the process of step S9 after step S8 and when the proximity sensor 18 does not detect a gesture associated with the enlargement / reduction of the icon 30 (No in step S7).

コントローラ11は、ディスプレイ14がユーザによるアイコン30への接触を検知した場合に(ステップS9のYes)、通常モードに設定して近接センサ18によるジェスチャの検出を終了すると共にアイコン30の態様を変化させる(ステップS10)。このとき、アイコン30は例えば図6(b)に示すような態様に戻る。そして、コントローラ11は一連の処理を終了する。コントローラ11はユーザによるアイコン30への接触を検知しない場合に(ステップS9のNo)、ステップS3の処理に戻る。   When the display 14 detects that the user has touched the icon 30 (Yes in step S9), the controller 11 sets the normal mode, ends the detection of the gesture by the proximity sensor 18, and changes the mode of the icon 30. (Step S10). At this time, the icon 30 returns to a mode as shown in FIG. 6B, for example. And the controller 11 complete | finishes a series of processes. When the controller 11 does not detect contact with the icon 30 by the user (No in step S9), the controller 11 returns to the process in step S3.

以上に説明したように、本実施形態に係る電子機器1は、近接センサ18と、キッチンモードおよび近接センサ18によりジェスチャの検出を兼用するアイコン30を表示するディスプレイ14と、アイコン30への接触を検知すると、キッチンモードの開始および近接センサ18によるジェスチャの検出を開始すると共に、アイコン30の態様を変化させるコントローラ11と、を備える。上記のように、アイコン30は、キッチンモードと近接センサ18によるジェスチャの検出とを関連付ける。つまり、電子機器1は、ユーザによるアイコン30の操作(タップ)だけで、キッチンモードへ移行して、かつ、エアジェスチャの検出を可能にする。そのため、電子機器1の操作性を向上させることができる。   As described above, the electronic device 1 according to the present embodiment performs contact with the proximity sensor 18, the display 14 that displays the icon 30 that also uses the kitchen mode and the proximity sensor 18 for gesture detection, and the icon 30. When detected, the controller 11 includes a controller 11 that starts the kitchen mode and starts detecting a gesture by the proximity sensor 18 and changes the mode of the icon 30. As described above, the icon 30 associates the kitchen mode with the detection of the gesture by the proximity sensor 18. In other words, the electronic device 1 shifts to the kitchen mode and enables detection of an air gesture only by an operation (tap) of the icon 30 by the user. Therefore, the operability of the electronic device 1 can be improved.

(その他の実施形態)
本発明を図面および実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形および修正を行うことが容易であることに注意されたい。したがって、これらの変形および修正は本発明の範囲に含まれることに留意されたい。例えば、各手段または各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段またはステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
(Other embodiments)
Although the present invention has been described based on the drawings and embodiments, it should be noted that those skilled in the art can easily make various variations and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, functions included in each means or each step can be rearranged so as not to be logically contradictory, and a plurality of means or steps can be combined into one or divided. .

上記の実施形態では、コントローラ11は、近接センサ18によって検出されたジェスチャ(例えば手を上下方向に移動させるジェスチャおよび手を1秒間かざすジェスチャ)に基づいて操作(例えば画面のスクロールおよびタイマー画面の表示)をしている場合に、検出されたジェスチャとは異なるジェスチャ(例えば手を左右方向に移動させるジェスチャ)が検出されると、アイコン30を拡大表示または縮小表示させた。ここで、コントローラ11は、アイコン30の拡大表示および縮小表示に代えて、アイコン30の透過および非透過を行ってもよい。例えば、コントローラ11は、例えば近接センサ18が手を左から右へと移動させるジェスチャを検出すると、アイコン30を透過させる。そして、コントローラ11は、例えば近接センサ18が手を右から左へと移動させるジェスチャを検出すると、アイコン30を非透過の状態へと戻す。ここで、アイコン30を透過させるとは、アイコン30の背景画像がユーザに視認されるようにアイコン30を透明化または半透明化することである。また、アイコン30を非透過にするとは、例えば図6(c)に示すように、アイコン30を不透明な状態にすることである。   In the above embodiment, the controller 11 performs an operation (for example, scrolling the screen and displaying the timer screen) based on the gesture detected by the proximity sensor 18 (for example, the gesture for moving the hand up and down and the gesture for holding the hand for 1 second). ), When a gesture different from the detected gesture (for example, a gesture for moving the hand in the left-right direction) is detected, the icon 30 is enlarged or reduced. Here, the controller 11 may perform transmission and non-transmission of the icon 30 instead of the enlarged display and the reduced display of the icon 30. For example, the controller 11 transmits the icon 30 when, for example, the proximity sensor 18 detects a gesture that moves the hand from left to right. Then, for example, when the proximity sensor 18 detects a gesture that moves the hand from right to left, the controller 11 returns the icon 30 to a non-transparent state. Here, to make the icon 30 transparent means to make the icon 30 transparent or semi-transparent so that a background image of the icon 30 is visually recognized by the user. Further, making the icon 30 non-transparent means making the icon 30 opaque as shown in FIG. 6C, for example.

本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、例えば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機またはその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作または制御方法は、プログラム命令(ソフトウェア)で実装された専用回路(例えば、特定機能を実行するために相互接続された個別の論理ゲート)、一以上のプロセッサにより実行される論理ブロックおよび/またはプログラムモジュール等により実行されることに留意されたい。論理ブロックおよび/またはプログラムモジュール等を実行する一以上のプロセッサには、例えば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置および/またはこれらいずれかの組合せが含まれる。ここに示す実施形態は、例えば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコードまたはコードセグメントであってもよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラスまたは命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってもよい。コードセグメントは、他のコードセグメントまたはハードウェア回路と、情報、データ引数、変数または記憶内容の送信および/または受信を行い、これにより、コードセグメントが他のコードセグメントまたはハードウェア回路と接続される。   Many aspects of the present disclosure are presented as a series of operations performed by a computer system or other hardware capable of executing program instructions. The computer system and other hardware include, for example, a general-purpose computer, a PC (personal computer), a dedicated computer, a workstation, a PCS (Personal Communications System), a mobile (cellular) telephone, and a data processing function. Mobile phones, RFID receivers, game consoles, electronic notepads, laptop computers, GPS (Global Positioning System) receivers or other programmable data processing devices are included. In each embodiment, various operations or control methods are performed by dedicated circuitry (eg, individual logic gates interconnected to perform specific functions) implemented by program instructions (software), one or more processors. Note that it is executed by a logical block and / or a program module. The one or more processors that execute logic blocks and / or program modules include, for example, one or more microprocessors, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), a DSP (Digital Signal Processor), and a PLD. (Programmable Logic Device), FPGA (Field Programmable Gate Array), processor, controller, microcontroller, microprocessor, electronic equipment, other devices designed to perform the functions described herein, and / or any combination thereof Is included. The embodiments shown here are implemented by, for example, hardware, software, firmware, middleware, microcode, or any combination thereof. The instructions may be program code or code segments for performing the necessary tasks. The instructions can then be stored on a machine-readable non-transitory storage medium or other medium. A code segment may represent any combination of procedures, functions, subprograms, programs, routines, subroutines, modules, software packages, classes or instructions, data structures or program statements. A code segment transmits and / or receives information, data arguments, variables or stored contents with other code segments or hardware circuits, thereby connecting the code segments with other code segments or hardware circuits .

ここで用いられるストレージ16は、さらに、ソリッドステートメモリ、磁気ディスクおよび光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができる。かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュール等のコンピュータ命令の適宜なセットまたはデータ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気および光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスクおよびブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)もしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体またはこれらいずれかの組合せが含まれる。メモリは、プロセッサまたはプロセッシングユニットの内部および/または外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性またはその他のメモリを意味する。つまり、「メモリ」は特定の種類および/または数に限定されない。また、記憶が格納される媒体の種類も限定されない。   The storage 16 used here can be further configured as a computer-readable tangible carrier (medium) composed of solid state memory, magnetic disk and optical disk. Such a medium stores an appropriate set of computer instructions or a data structure such as a program module for causing a processor to execute the technology disclosed herein. Computer readable media include electrical connections with one or more wires, magnetic disk storage media, magnetic cassettes, magnetic tape, and other magnetic and optical storage devices (eg, CD (Compact Disk), laser disks ( (Registered trademark), DVD (registered trademark) (Digital Versatile Disc), floppy (registered trademark) disk and Blu-ray Disc (registered trademark)), portable computer disk, RAM (Random Access Memory), ROM (Read-Only Memory), EPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), flash memory, rewritable and programmable ROM, other tangible storage media capable of storing information, or any combination thereof Is included. The memory can be provided inside and / or outside the processor or processing unit. As used herein, the term “memory” means any kind of long-term storage, short-term storage, volatile, non-volatile or other memory. That is, the “memory” is not limited to a specific type and / or number. Further, the type of medium in which the storage is stored is not limited.

1 電子機器
11 コントローラ
12 タイマー
13 カメラ
14 ディスプレイ
15 マイク
16 ストレージ
17 通信ユニット
18 近接センサ
19 UVセンサ
20 照度センサ
21 加速度センサ
22 地磁気センサ
23 気圧センサ
24 ジャイロセンサ
25 スピーカー
30,30A アイコン
140,141 選択ボタン
180 光源用赤外LED
181 レンズ
SU,SR,SD,SL フォトダイオード
DESCRIPTION OF SYMBOLS 1 Electronic device 11 Controller 12 Timer 13 Camera 14 Display 15 Microphone 16 Storage 17 Communication unit 18 Proximity sensor 19 UV sensor 20 Illuminance sensor 21 Acceleration sensor 22 Geomagnetic sensor 23 Pressure sensor 24 Gyro sensor 25 Speaker 30, 30A Icon 140, 141 selection button 180 Infrared LED for light source
181 Lens SU, SR, SD, SL Photodiode

Claims (10)

近接センサと、
所定のモードおよび前記近接センサによりジェスチャの検出を兼用するアイコンを表示するタッチパネルディスプレイと、
前記アイコンへの接触を検知すると、所定のモードの開始および前記近接センサによるジェスチャの検出を開始すると共に、アイコンの態様を変化させるコントローラと、を備える電子機器。
A proximity sensor;
A touch panel display that displays an icon that is also used for gesture detection by a predetermined mode and the proximity sensor;
An electronic device comprising: a controller that starts a predetermined mode and detects a gesture by the proximity sensor when the contact with the icon is detected, and changes a mode of the icon.
前記コントローラは前記アイコンの色を変化させる、請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the controller changes a color of the icon. 前記コントローラは前記アイコンの形状を変化させる、請求項1または2に記載の電子機器。   The electronic device according to claim 1, wherein the controller changes a shape of the icon. 前記コントローラは、
前記近接センサによって検出されたジェスチャに基づいて操作をしている場合に、該検出されたジェスチャとは異なるジェスチャが検出されると、前記アイコンを拡大表示または縮小表示させる、請求項1から3のいずれか一項に記載の電子機器。
The controller is
4. The operation according to claim 1, wherein, when an operation is performed based on a gesture detected by the proximity sensor, the icon is enlarged or reduced when a gesture different from the detected gesture is detected. The electronic device as described in any one.
前記コントローラは、
前記近接センサによって検出されたジェスチャに基づいて操作をしている場合に、該検出されたジェスチャとは異なるジェスチャが検出されると、前記アイコンを透過または非透過にする、請求項1から3のいずれか一項に記載の電子機器。
The controller is
4. The operation according to claim 1, wherein, when an operation is performed based on a gesture detected by the proximity sensor, the icon is made transparent or non-transparent when a gesture different from the detected gesture is detected. The electronic device as described in any one.
前記コントローラは、
前記近接センサによって検出されたジェスチャに基づいてタイマーが実行された場合に、前記タイマーの状態に応じてアイコンの態様を変化させる、請求項1から5のいずれか一項に記載の電子機器。
The controller is
The electronic device according to any one of claims 1 to 5, wherein when a timer is executed based on a gesture detected by the proximity sensor, an aspect of the icon is changed according to a state of the timer.
前記コントローラは、
前記タイマーの状態に応じてアイコンを点滅させる、請求項6に記載の電子機器。
The controller is
The electronic device according to claim 6, wherein an icon blinks in accordance with the state of the timer.
前記所定のモードはキッチンモードである、請求項1から7のいずれか一項に記載の電子機器。   The electronic device according to claim 1, wherein the predetermined mode is a kitchen mode. 近接センサと、所定のモードおよび前記近接センサによりジェスチャの検出を兼用するアイコンを表示するタッチパネルディスプレイと、を備える電子機器に、
前記アイコンへの接触を検知すると、所定のモードの開始および前記近接センサによるジェスチャの検出を開始すると共に、アイコンの態様を変化させるステップ、を実行させるプログラム。
In an electronic device comprising a proximity sensor, and a touch panel display that displays an icon that also serves as a gesture detection by a predetermined mode and the proximity sensor,
A program that, upon detecting contact with the icon, starts a predetermined mode and starts detecting a gesture by the proximity sensor, and executes a step of changing an aspect of the icon.
近接センサと、所定のモードおよび前記近接センサによりジェスチャの検出を兼用するアイコンを表示するタッチパネルディスプレイと、を備える電子機器の制御方法であって、
前記アイコンへの接触を検知すると、所定のモードの開始および前記近接センサによるジェスチャの検出を開始すると共に、アイコンの態様を変化させるステップ、を含む制御方法。
A control method of an electronic device comprising: a proximity sensor; and a touch panel display that displays an icon that also uses a predetermined mode and gesture detection by the proximity sensor,
When a contact with the icon is detected, the control method includes a step of starting a predetermined mode and detecting a gesture by the proximity sensor, and changing a mode of the icon.
JP2017000233A 2017-01-04 2017-01-04 Electronic device, program, and control method Active JP6101881B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017000233A JP6101881B1 (en) 2017-01-04 2017-01-04 Electronic device, program, and control method
US15/855,425 US10775998B2 (en) 2017-01-04 2017-12-27 Electronic device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017000233A JP6101881B1 (en) 2017-01-04 2017-01-04 Electronic device, program, and control method

Publications (2)

Publication Number Publication Date
JP6101881B1 true JP6101881B1 (en) 2017-03-22
JP2018109872A JP2018109872A (en) 2018-07-12

Family

ID=58363100

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017000233A Active JP6101881B1 (en) 2017-01-04 2017-01-04 Electronic device, program, and control method

Country Status (1)

Country Link
JP (1) JP6101881B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6293953B1 (en) * 2017-04-04 2018-03-14 京セラ株式会社 Electronic device, program, and control method
JP2018181307A (en) * 2018-02-14 2018-11-15 京セラ株式会社 Electronic device, program and control method
WO2018216056A1 (en) * 2017-05-22 2018-11-29 株式会社ぐるなび Cooking assistance device, cooking assistance program and cooking assistance method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7039416B2 (en) * 2018-07-31 2022-03-22 東芝ライフスタイル株式会社 refrigerator

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012104951A1 (en) * 2011-01-31 2012-08-09 パナソニック株式会社 Information processing device, processing control method, program, and recording medium
WO2013121785A1 (en) * 2012-02-14 2013-08-22 パナソニック株式会社 Electronic device
JP2014170337A (en) * 2013-03-04 2014-09-18 Mitsubishi Electric Corp Information display control device, information display device, and information display control method
JP2015515065A (en) * 2012-04-16 2015-05-21 クアルコム,インコーポレイテッド Interact with devices using gestures

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012104951A1 (en) * 2011-01-31 2012-08-09 パナソニック株式会社 Information processing device, processing control method, program, and recording medium
WO2013121785A1 (en) * 2012-02-14 2013-08-22 パナソニック株式会社 Electronic device
JP2015515065A (en) * 2012-04-16 2015-05-21 クアルコム,インコーポレイテッド Interact with devices using gestures
JP2014170337A (en) * 2013-03-04 2014-09-18 Mitsubishi Electric Corp Information display control device, information display device, and information display control method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6293953B1 (en) * 2017-04-04 2018-03-14 京セラ株式会社 Electronic device, program, and control method
JP2018180647A (en) * 2017-04-04 2018-11-15 京セラ株式会社 Electronic device, program and control method
US10712828B2 (en) 2017-04-04 2020-07-14 Kyocera Corporation Electronic device, recording medium, and control method
WO2018216056A1 (en) * 2017-05-22 2018-11-29 株式会社ぐるなび Cooking assistance device, cooking assistance program and cooking assistance method
JP2018181307A (en) * 2018-02-14 2018-11-15 京セラ株式会社 Electronic device, program and control method

Also Published As

Publication number Publication date
JP2018109872A (en) 2018-07-12

Similar Documents

Publication Publication Date Title
US10775998B2 (en) Electronic device and control method
JP6293953B1 (en) Electronic device, program, and control method
JP6101881B1 (en) Electronic device, program, and control method
JP6091693B1 (en) Electronics
US11269417B2 (en) Electronic device configured to communicate with an intercom, and control method thereof
WO2018193876A1 (en) Electronic device
JP6163278B1 (en) Electronic device, program, and control method
JP6209699B1 (en) Electronic device, program, and control method
JP2018181351A (en) Electronic device
JP6546632B2 (en) Electronic device, program and control method
JP6113345B1 (en) Electronics
US20180188817A1 (en) Electronic device, computer-readable non-transitory recording medium, and control method
WO2018092660A1 (en) Electronic apparatus, program, and control method
JP6235175B1 (en) Electronic device, program, and control method
JP6173625B1 (en) Electronic device, program, and control method
JP6346699B1 (en) Electronics
JP2018110370A (en) Electronic device, program and control method
JP6163274B1 (en) Electronic device, program, and control method
JP6333461B1 (en) Electronics
JP2018109871A (en) Electronic device
JP6637089B2 (en) Electronic device, program and control method
JP2018109955A (en) Electronic device, program and control method
JP2018109873A (en) Electronic device, program and control method
JP2019149825A (en) Electronic device, program, and control method
JP2018137827A (en) Electronic apparatus, program, and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170116

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20170120

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20170207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170227

R150 Certificate of patent or registration of utility model

Ref document number: 6101881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150