JP2018109874A - Electronic apparatus, program, and control method - Google Patents

Electronic apparatus, program, and control method Download PDF

Info

Publication number
JP2018109874A
JP2018109874A JP2017000238A JP2017000238A JP2018109874A JP 2018109874 A JP2018109874 A JP 2018109874A JP 2017000238 A JP2017000238 A JP 2017000238A JP 2017000238 A JP2017000238 A JP 2017000238A JP 2018109874 A JP2018109874 A JP 2018109874A
Authority
JP
Japan
Prior art keywords
gesture
controller
proximity sensor
electronic device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017000238A
Other languages
Japanese (ja)
Other versions
JP6173625B1 (en
Inventor
優哉 山口
Yuya Yamaguchi
優哉 山口
太郎 飯尾
Taro Iio
太郎 飯尾
遼平 中村
Ryohei Nakamura
遼平 中村
恒雄 宮下
Tsuneo Miyashita
恒雄 宮下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017000238A priority Critical patent/JP6173625B1/en
Application granted granted Critical
Publication of JP6173625B1 publication Critical patent/JP6173625B1/en
Priority to US15/855,509 priority patent/US20180188817A1/en
Publication of JP2018109874A publication Critical patent/JP2018109874A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an electronic apparatus that easily prevent a wrong operation in an input operation with a gesture, a program, and a control method.SOLUTION: An electronic apparatus 1 comprises: a proximity sensor 18; and a controller 11 that executes processing based on a gesture according to an output from the proximity sensor 18. When a second gesture is detected after a first gesture according to an output from the proximity sensor 18, the controller 11 determines whether the second gesture is valid or invalid on the basis of the first gesture and second gesture.SELECTED DRAWING: Figure 1

Description

本発明は、電子機器、プログラムおよび制御方法に関する。   The present invention relates to an electronic device, a program, and a control method.

例えばスマートフォンおよびタブレット端末等の電子機器は、一般にタッチパネルを備えている。ユーザは、このような電子機器を、タッチパネルに触れることで制御するのが一般的である。近年、ユーザが端末から離れて行うジェスチャを例えば赤外線センサ等の近接センサによって検出し、ジェスチャと対応する入力操作を実行する電子機器が知られている(例えば特許文献1)。   For example, electronic devices such as smartphones and tablet terminals generally include a touch panel. A user generally controls such an electronic device by touching a touch panel. 2. Description of the Related Art In recent years, an electronic device that detects a gesture performed by a user away from a terminal using a proximity sensor such as an infrared sensor and performs an input operation corresponding to the gesture is known (for example, Patent Document 1).

特開2015−225493号公報Japanese Patent Laying-Open No. 2015-225493

特許文献1に開示されたジェスチャによる入力操作は、タッチパネルへの入力操作と異なり、直接電子機器に触れて操作が行われるものではない。そのため、ユーザが特定の操作を意図してジェスチャを行っても、電子機器が、ユーザの意図とは異なる操作として認識する場合がある。電子機器が、ユーザのジェスチャを、ユーザの意図しないジェスチャと認識した場合、電子機器の誤操作が発生し得る。   Unlike the input operation to the touch panel, the input operation by the gesture disclosed in Patent Document 1 is not performed by directly touching the electronic device. Therefore, even when the user performs a gesture intended for a specific operation, the electronic device may recognize the operation as being different from the user's intention. When the electronic device recognizes the user's gesture as a gesture not intended by the user, an erroneous operation of the electronic device may occur.

かかる事情に鑑みてなされた本発明の目的は、ジェスチャによる入力操作において誤操作を防止しやすい電子機器、プログラムおよび制御方法を提供することにある。   An object of the present invention made in view of such circumstances is to provide an electronic device, a program, and a control method that can easily prevent an erroneous operation in an input operation by a gesture.

本発明の実施形態に係る電子機器は、近接センサと、前記近接センサからの出力に応じてジェスチャに基づく処理を実行するコントローラと、を備える。前記コントローラは、前記近接センサからの出力に応じて第1のジェスチャの後に第2のジェスチャが検出されると、前記第1のジェスチャと前記第2のジェスチャとに基づいて、前記第2のジェスチャの有効または無効を決定する。   An electronic apparatus according to an embodiment of the present invention includes a proximity sensor and a controller that executes a process based on a gesture according to an output from the proximity sensor. When the second gesture is detected after the first gesture according to the output from the proximity sensor, the controller detects the second gesture based on the first gesture and the second gesture. Determine whether is valid or invalid.

本発明の実施形態に係るプログラムは、近接センサと、コントローラと、を備える電子機器に、前記コントローラにより、前記近接センサからの出力に応じてジェスチャに基づく処理を実行するステップと、前記コントローラにより、前記近接センサからの出力に応じて第1のジェスチャの後に第2のジェスチャが検出されると、前記第1のジェスチャと前記第2のジェスチャとに基づいて、前記第2のジェスチャの有効または無効を決定するステップと、を実行させる。   A program according to an embodiment of the present invention includes: a step of executing processing based on a gesture according to an output from the proximity sensor by an electronic device including a proximity sensor and a controller; When a second gesture is detected after the first gesture according to the output from the proximity sensor, the second gesture is enabled or disabled based on the first gesture and the second gesture. And a step of determining.

本発明の実施形態に係る制御方法は、近接センサと、コントローラと、を備える電子機器の制御方法であって、前記コントローラにより、前記近接センサからの出力に応じてジェスチャに基づく処理を実行するステップと、前記コントローラにより、前記近接センサからの出力に応じて第1のジェスチャの後に第2のジェスチャが検出されると、前記第1のジェスチャと前記第2のジェスチャとに基づいて、前記第2のジェスチャの有効または無効を決定するステップと、を含む。   A control method according to an embodiment of the present invention is a method for controlling an electronic device including a proximity sensor and a controller, and the controller executes a process based on a gesture according to an output from the proximity sensor. And when the second gesture is detected after the first gesture by the controller according to the output from the proximity sensor, the second gesture is performed based on the first gesture and the second gesture. Determining whether the gesture is valid or invalid.

本発明の一実施形態によれば、ジェスチャによる入力操作において誤操作を防止しやすい電子機器、プログラムおよび制御方法を提供することができる。   According to an embodiment of the present invention, it is possible to provide an electronic device, a program, and a control method that can easily prevent an erroneous operation in an input operation by a gesture.

一実施形態に係る電子機器の概略構成図である。It is a schematic block diagram of the electronic device which concerns on one Embodiment. ユーザがジェスチャにより電子機器を操作する様子を例示する図である。It is a figure which illustrates a mode that a user operates an electronic device with gesture. 近接センサの概略構成図である。It is a schematic block diagram of a proximity sensor. 各赤外フォトダイオードが検出する検出値の推移を示す図である。It is a figure which shows transition of the detected value which each infrared photodiode detects. 電子機器をジェスチャで操作する状況を例示する図である。It is a figure which illustrates the condition of operating an electronic device with a gesture. ユーザによる連続的なジェスチャの一例を示す図である。It is a figure which shows an example of the continuous gesture by a user. 電子機器が実行する処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process which an electronic device performs. ユーザのジェスチャの一例を模式的に示す図である。It is a figure which shows an example of a user's gesture typically.

(電子機器の構成)
図1に示すように一実施形態の電子機器1は、タイマー12と、カメラ13と、ディスプレイ14と、マイク15と、ストレージ16と、通信ユニット17と、スピーカー25と、近接センサ18(ジェスチャセンサ)と、コントローラ11と、を備える。電子機器1は、さらにUVセンサ19と、照度センサ20と、加速度センサ21と、地磁気センサ22と、気圧センサ23と、ジャイロセンサ24と、を備える。図1は例示である。電子機器1は図1に示す構成要素の全てを備えなくてもよい。また、電子機器1は図1に示す以外の構成要素を備えていてもよい。
(Configuration of electronic equipment)
As shown in FIG. 1, an electronic device 1 according to an embodiment includes a timer 12, a camera 13, a display 14, a microphone 15, a storage 16, a communication unit 17, a speaker 25, and a proximity sensor 18 (gesture sensor). ) And a controller 11. The electronic device 1 further includes a UV sensor 19, an illuminance sensor 20, an acceleration sensor 21, a geomagnetic sensor 22, an atmospheric pressure sensor 23, and a gyro sensor 24. FIG. 1 is an illustration. The electronic device 1 may not include all of the components shown in FIG. Further, the electronic device 1 may include components other than those shown in FIG.

タイマー12はコントローラ11からタイマー動作の指示を受け、所定時間経過した時点で、その旨を示す信号をコントローラ11に出力する。タイマー12は、図1に示すようにコントローラ11とは独立して設けられていてもよいし、コントローラ11が内蔵する構成であってもよい。   The timer 12 receives a timer operation instruction from the controller 11 and outputs a signal indicating that to the controller 11 when a predetermined time has elapsed. As shown in FIG. 1, the timer 12 may be provided independently of the controller 11, or may be configured to be built in the controller 11.

カメラ13は、電子機器1の周囲の被写体を撮像する。カメラ13は一例として、電子機器1のディスプレイ14が設けられる面に設けられるインカメラである。   The camera 13 images a subject around the electronic device 1. As an example, the camera 13 is an in-camera provided on a surface on which the display 14 of the electronic device 1 is provided.

ディスプレイ14は画面を表示する。画面は、例えば文字、画像、記号および図形等の少なくとも一つを含む。ディスプレイ14は、液晶ディスプレイ(Liquid Crystal Display)、有機ELパネル(Organic Electro-Luminescence Panel)または無機ELパネル(Inorganic Electro-Luminescence Panel)等であってもよい。本実施形態において、ディスプレイ14はタッチパネルディスプレイ(タッチスクリーンディスプレイ)である。タッチパネルディスプレイは、指またはスタイラスペン等の接触を検出して、その接触位置を特定する。ディスプレイ14は、指またはスタイラスペン等が接触した位置を同時に複数検出することができる。   The display 14 displays a screen. The screen includes at least one of, for example, a character, an image, a symbol, and a graphic. The display 14 may be a liquid crystal display, an organic EL panel (Organic Electro-Luminescence Panel), an inorganic EL panel (Inorganic Electro-Luminescence Panel), or the like. In the present embodiment, the display 14 is a touch panel display (touch screen display). The touch panel display detects the contact of a finger or a stylus pen and specifies the contact position. The display 14 can simultaneously detect a plurality of positions touched by a finger or a stylus pen.

マイク15は、人が発する声を含む、電子機器1の周囲の音を検出する。   The microphone 15 detects sounds around the electronic device 1 including a voice uttered by a person.

ストレージ16は記憶部としてプログラムおよびデータを記憶する。ストレージ16は、コントローラ11の処理結果を一時的に記憶する。ストレージ16は、半導体記憶デバイスおよび磁気記憶デバイス等の任意の記憶デバイスを含んでよい。ストレージ16は、複数の種類の記憶デバイスを含んでよい。ストレージ16は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。   The storage 16 stores programs and data as a storage unit. The storage 16 temporarily stores the processing result of the controller 11. The storage 16 may include any storage device such as a semiconductor storage device and a magnetic storage device. The storage 16 may include a plurality of types of storage devices. The storage 16 may include a combination of a portable storage medium such as a memory card and a storage medium reading device.

ストレージ16に記憶されるプログラムには、フォアグランドまたはバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとを含む。アプリケーションは、例えば、ジェスチャに応じた処理をコントローラ11に実行させる。制御プログラムは、例えば、OS(Operating System)である。アプリケーションおよび制御プログラムは、通信ユニット17による通信または記憶媒体を介してストレージ16にインストールされてもよい。   The programs stored in the storage 16 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application causes the controller 11 to execute processing according to the gesture. The control program is, for example, an OS (Operating System). The application and the control program may be installed in the storage 16 via communication by the communication unit 17 or via a storage medium.

通信ユニット17は、有線または無線により通信するためのインタフェースである。一実施形態の通信ユニット17によって行われる通信方式は無線通信規格である。例えば、無線通信規格は2G、3Gおよび4G等のセルラーフォンの通信規格を含む。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)およびPHS(Personal Handy-phone System)等を含む。例えば、無線通信規格は、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)およびNFC(Near Field Communication)等を含む。通信ユニット17は、上述した通信規格の1つまたは複数をサポートすることができる。   The communication unit 17 is an interface for communicating by wire or wireless. The communication method performed by the communication unit 17 of one embodiment is a wireless communication standard. For example, the wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. For example, communication standards for cellular phones include LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (registered trademark) (Global System for Mobile communications) and PHS (PHS). Personal Handy-phone System). For example, wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and the like. The communication unit 17 can support one or more of the communication standards described above.

スピーカー25は音を出力する。例えば通話の際に、相手の声がスピーカー25から出力される。また、例えばニュースまたは天気予報等の読み上げの際に、その内容がスピーカー25から音で出力される。   The speaker 25 outputs sound. For example, the other party's voice is output from the speaker 25 during a call. For example, when reading out news or weather forecasts, the content is output from the speaker 25 as sound.

近接センサ18は、電子機器1の周囲の対象物との相対距離および対象物の移動方向等を非接触で検出する。本実施形態において、近接センサ18は1つの光源用赤外LED(Light Emitting Diode)と4つの赤外フォトダイオードとを有する。近接センサ18は、光源用赤外LEDから赤外光を対象物に向けて照射する。近接センサ18は、対象物からの反射光を赤外フォトダイオードの入射光とする。そして、近接センサ18は赤外フォトダイオードの出力電流に基づいて対象物との相対距離を測定することができる。また、近接センサ18は、対象物からの反射光がそれぞれの赤外フォトダイオードに入射する時間差により対象物の移動方向を検出する。したがって、近接センサ18は、電子機器1のユーザが電子機器1に触れずに行うエアジェスチャ(以下単に「ジェスチャ」という)を用いた操作を検出することができる。ここで、近接センサ18は可視光フォトダイオードを有していてもよい。   The proximity sensor 18 detects the relative distance to the objects around the electronic device 1 and the moving direction of the objects in a non-contact manner. In the present embodiment, the proximity sensor 18 includes one light source infrared LED (Light Emitting Diode) and four infrared photodiodes. The proximity sensor 18 irradiates the target with infrared light from the light source infrared LED. The proximity sensor 18 uses reflected light from the object as incident light of an infrared photodiode. The proximity sensor 18 can measure the relative distance to the object based on the output current of the infrared photodiode. Further, the proximity sensor 18 detects the moving direction of the object based on a time difference in which the reflected light from the object enters each infrared photodiode. Therefore, the proximity sensor 18 can detect an operation using an air gesture (hereinafter simply referred to as “gesture”) performed by the user of the electronic device 1 without touching the electronic device 1. Here, the proximity sensor 18 may have a visible light photodiode.

コントローラ11は、例えばCPU(Central Processing Unit)等のプロセッサである。コントローラ11は、他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってもよい。コントローラ11は、複数の集積回路を組み合わせて構成されてもよい。コントローラ11は、電子機器1の動作を統括的に制御して各種の機能を実現する。   The controller 11 is a processor such as a CPU (Central Processing Unit). The controller 11 may be an integrated circuit such as an SoC (System-on-a-Chip) in which other components are integrated. The controller 11 may be configured by combining a plurality of integrated circuits. The controller 11 controls various operations of the electronic device 1 to realize various functions.

具体的にはコントローラ11は、ストレージ16に記憶されているデータを必要に応じて参照する。コントローラ11は、ストレージ16に記憶されているプログラムに含まれる命令を実行してディスプレイ14等の他の機能部を制御することによって各種機能を実現する。例えばコントローラ11は、ユーザによる接触のデータをタッチパネルから取得する。例えばコントローラ11は、近接センサ18が検出したユーザのジェスチャに関する情報を取得する。例えばコントローラ11は、タイマー12からカウントダウンの残り時間(タイマー時間)等の情報を取得する。また、例えばコントローラ11は、アプリケーションの起動状況を把握する。   Specifically, the controller 11 refers to data stored in the storage 16 as necessary. The controller 11 implements various functions by executing instructions included in the program stored in the storage 16 and controlling other functional units such as the display 14. For example, the controller 11 acquires contact data from the user from the touch panel. For example, the controller 11 acquires information related to the user's gesture detected by the proximity sensor 18. For example, the controller 11 acquires information such as the remaining countdown time (timer time) from the timer 12. For example, the controller 11 grasps the activation status of the application.

UVセンサ19は、太陽光等に含まれる紫外線(Ultraviolet)量を測定することができる。   The UV sensor 19 can measure the amount of ultraviolet rays contained in sunlight or the like.

照度センサ20は、当該照度センサ20に入射する周囲光の照度を検出する。   The illuminance sensor 20 detects the illuminance of ambient light incident on the illuminance sensor 20.

加速度センサ21は、電子機器1に働く加速度の方向および大きさを検出する。加速度センサ21は、例えばx軸方向、y軸方向およびz軸方向の加速度を検出する3軸(3次元)タイプである。加速度センサ21は、例えばピエゾ抵抗型であってもよいし、静電容量型であってもよい。   The acceleration sensor 21 detects the direction and magnitude of acceleration acting on the electronic device 1. The acceleration sensor 21 is, for example, a three-axis (three-dimensional) type that detects acceleration in the x-axis direction, the y-axis direction, and the z-axis direction. The acceleration sensor 21 may be, for example, a piezoresistive type or a capacitance type.

地磁気センサ22は地磁気の向きを検出して、電子機器1の向きを測定可能にする。   The geomagnetic sensor 22 detects the direction of geomagnetism and makes it possible to measure the direction of the electronic device 1.

気圧センサ23は、電子機器1の外側の気圧(大気圧)を検出する。   The atmospheric pressure sensor 23 detects the atmospheric pressure (atmospheric pressure) outside the electronic device 1.

ジャイロセンサ24は、電子機器1の角速度を検出する。コントローラ11は、ジャイロセンサ24により取得された角速度を時間積分することにより、電子機器1の向きの変化を測定することができる。   The gyro sensor 24 detects the angular velocity of the electronic device 1. The controller 11 can measure the change in the orientation of the electronic device 1 by time-integrating the angular velocity acquired by the gyro sensor 24.

(ジェスチャによる電子機器の操作)
図2は、ユーザがジェスチャにより電子機器1を操作する様子を示す。図2において、電子機器1は一例としてスタンドによって支持される。代替例として電子機器1は壁に立てかけられたり、テーブルに置かれたりしてもよい。近接センサ18がユーザのジェスチャを検出すると、コントローラ11は検出されたジェスチャに基づく処理を行う。図2の例では、ジェスチャに基づく処理はレシピが表示されている画面のスクロールである。例えば、ユーザが電子機器1の長手方向上方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が上方へとスクロールする。また、例えば、ユーザが電子機器1の長手方向下方へと手を動かすジェスチャを行うと、ユーザの手の動きに連動して画面が下方へとスクロールする。
(Operating electronic devices using gestures)
FIG. 2 shows a state in which the user operates the electronic device 1 with a gesture. In FIG. 2, the electronic device 1 is supported by a stand as an example. As an alternative example, the electronic device 1 may be leaned against a wall or placed on a table. When the proximity sensor 18 detects a user gesture, the controller 11 performs processing based on the detected gesture. In the example of FIG. 2, the process based on the gesture is scrolling of the screen on which the recipe is displayed. For example, when the user performs a gesture of moving his / her hand upward in the longitudinal direction of the electronic device 1, the screen scrolls upward in conjunction with the movement of the user's hand. Further, for example, when the user performs a gesture of moving the hand downward in the longitudinal direction of the electronic device 1, the screen scrolls downward in conjunction with the movement of the user's hand.

図2に示す電子機器1はスマートフォンである。代替例として電子機器1は例えば、携帯電話端末、ファブレット、タブレットPCまたはフィーチャーフォン等でもよい。また、電子機器1は、上記のものに限定されず、例えば、PDA、リモコン端末、携帯音楽プレイヤー、ゲーム機、電子書籍リーダ、カーナビゲーション、家電製品または産業用機器(FA機器)等でもよい。   The electronic device 1 shown in FIG. 2 is a smartphone. As an alternative example, the electronic device 1 may be, for example, a mobile phone terminal, a Fablet, a tablet PC, or a feature phone. Further, the electronic device 1 is not limited to the above, and may be, for example, a PDA, a remote control terminal, a portable music player, a game machine, an electronic book reader, a car navigation, a home appliance, or an industrial device (FA device).

(ジェスチャを検出する手法)
ここで、図3および図4を参照しながら、コントローラ11が近接センサ18の出力に基づいてユーザのジェスチャを検出する手法を説明する。図3は、電子機器1を正面から見たときの近接センサ18の構成例を示す図である。近接センサ18は、光源用赤外LED180と、4つの赤外フォトダイオードSU,SR,SDおよびSLと、を有する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181を介して検出対象物からの反射光を検出する。4つの赤外フォトダイオードSU,SR,SDおよびSLは、レンズ181の中心から見て対称的に配置されている。ここで、図3に示される仮想線D1は電子機器1の長手方向と略平行であるとする。図3の仮想線D1上に、赤外フォトダイオードSUと赤外フォトダイオードSDとが離れて配置されている。そして、図3の仮想線D1の方向において、赤外フォトダイオードSRおよびSLは、赤外フォトダイオードSUと赤外フォトダイオードSDとの間に配置されている。
(Method for detecting gestures)
Here, a method in which the controller 11 detects a user gesture based on the output of the proximity sensor 18 will be described with reference to FIGS. 3 and 4. FIG. 3 is a diagram illustrating a configuration example of the proximity sensor 18 when the electronic apparatus 1 is viewed from the front. The proximity sensor 18 includes a light source infrared LED 180 and four infrared photodiodes SU, SR, SD, and SL. The four infrared photodiodes SU, SR, SD, and SL detect reflected light from the detection target via the lens 181. The four infrared photodiodes SU, SR, SD, and SL are arranged symmetrically when viewed from the center of the lens 181. Here, it is assumed that the virtual line D <b> 1 shown in FIG. 3 is substantially parallel to the longitudinal direction of the electronic device 1. On the virtual line D1 in FIG. 3, the infrared photodiode SU and the infrared photodiode SD are arranged apart from each other. In the direction of the imaginary line D1 in FIG. 3, the infrared photodiodes SR and SL are arranged between the infrared photodiode SU and the infrared photodiode SD.

図4は、4つの赤外フォトダイオードSU,SR,SDおよびSLの検出対象物(例えばユーザの手等)が、図3の仮想線D1の方向に沿って移動したときの検出値の推移を例示する。ここで、仮想線D1の方向において、赤外フォトダイオードSUと赤外フォトダイオードSDとが最も離れている。そのため、図4に示すように、赤外フォトダイオードSUの検出値(破線)の変化(例えば上昇)と、赤外フォトダイオードSDの検出値(細い実線)の同じ変化(例えば上昇)との時間差が最も大きい。コントローラ11は、フォトダイオードSU,SR,SDおよびSLの検出値の所定の変化の時間差を把握することによって、検出対象物の移動方向を判定できる。   FIG. 4 shows the transition of the detection value when the detection objects (for example, the user's hand) of the four infrared photodiodes SU, SR, SD, and SL move along the direction of the virtual line D1 in FIG. Illustrate. Here, the infrared photodiode SU is farthest from the infrared photodiode SD in the direction of the virtual line D1. Therefore, as shown in FIG. 4, the time difference between the change (for example, increase) in the detection value (broken line) of the infrared photodiode SU and the same change (for example, increase) in the detection value (thin solid line) of the infrared photodiode SD. Is the largest. The controller 11 can determine the moving direction of the detection object by grasping the time difference of the predetermined change in the detection values of the photodiodes SU, SR, SD, and SL.

コントローラ11は、近接センサ18からフォトダイオードSU,SR,SDおよびSLの検出値を取得する。そして、コントローラ11は、例えば検出対象物の仮想線D1の方向への移動を把握するために、フォトダイオードSDの検出値からフォトダイオードSUの検出値を減算した値を所定の時間で積分してもよい。図4の例では、領域R41およびR42において積分値は非ゼロの値となる。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1の方向における検出対象物の移動を把握できる。   The controller 11 acquires the detection values of the photodiodes SU, SR, SD, and SL from the proximity sensor 18. Then, the controller 11 integrates, for a predetermined time, a value obtained by subtracting the detection value of the photodiode SU from the detection value of the photodiode SD in order to grasp the movement of the detection object in the direction of the virtual line D1, for example. Also good. In the example of FIG. 4, the integral value is a non-zero value in the regions R41 and R42. From the change in the integrated value (for example, change in positive value, zero, and negative value), the controller 11 can grasp the movement of the detection target in the direction of the virtual line D1.

また、コントローラ11は、フォトダイオードSLの検出値からフォトダイオードSRの検出値を減算した値を所定の時間で積分してもよい。この積分値の変化(例えば正値、ゼロ、負値の変化)から、コントローラ11は、仮想線D1に直交する方向(電子機器1の短手方向に略平行な方向)における検出対象物の移動を把握できる。   Further, the controller 11 may integrate a value obtained by subtracting the detection value of the photodiode SR from the detection value of the photodiode SL in a predetermined time. From this change in integral value (for example, a change in positive value, zero, or negative value), the controller 11 moves the detection target in a direction orthogonal to the virtual line D1 (a direction substantially parallel to the short direction of the electronic device 1). Can be grasped.

代替例として、コントローラ11はフォトダイオードSU,SR,SDおよびSLの全ての検出値を用いて演算を行ってもよい。すなわち、コントローラ11は検出対象物の移動方向を、電子機器1の長手方向および短手方向の成分に分離して演算することなく把握してもよい。   As an alternative example, the controller 11 may perform calculation using all detection values of the photodiodes SU, SR, SD, and SL. That is, the controller 11 may grasp the moving direction of the detection target without calculating the components in the longitudinal direction and the short direction of the electronic device 1.

検出されるジェスチャは例えば、左右のジェスチャ、上下のジェスチャ、斜めのジェスチャ、時計回りで円を描くジェスチャ、および反時計回りで円を描くジェスチャ等である。例えば左右へのジェスチャとは、電子機器1の短手方向と略平行な方向に行われるジェスチャである。上下のジェスチャとは、電子機器1の長手方向と略平行な方向に行われるジェスチャである。斜めのジェスチャとは、電子機器1と略平行な平面において、電子機器1の長手方向と短手方向とのいずれとも平行でない方向に行われるジェスチャである。   The detected gestures include, for example, left and right gestures, up and down gestures, diagonal gestures, gestures that draw a circle in a clockwise direction, and gestures that draw a circle in a counterclockwise direction. For example, the right and left gesture is a gesture performed in a direction substantially parallel to the short direction of the electronic device 1. The upper and lower gestures are gestures performed in a direction substantially parallel to the longitudinal direction of the electronic device 1. The oblique gesture is a gesture performed in a direction that is not parallel to either the longitudinal direction or the short direction of the electronic device 1 on a plane substantially parallel to the electronic device 1.

(キッチンモード)
図5は、ユーザがジェスチャにより電子機器1を操作する状況の一例を示す。図5の例で、ユーザは料理のレシピを電子機器1のディスプレイ14に表示しながら、キッチンでレシピに従って料理をしている。このとき、近接センサ18はユーザのジェスチャを検出する。そして、コントローラ11は近接センサ18が検出したジェスチャに基づく処理を行う。例えば、コントローラ11は特定のジェスチャ(例えばユーザが手を上下に動かすジェスチャ)に応じてレシピをスクロールする処理が可能である。料理中は、ユーザの手が汚れたり、濡れたりすることがある。しかし、ユーザは電子機器1に触れることなくレシピをスクロールすることができる。したがって、ディスプレイ14が汚れること、および料理中のユーザの手にディスプレイ14の汚れがうつることを回避できる。
(Kitchen mode)
FIG. 5 shows an example of a situation where the user operates the electronic device 1 with a gesture. In the example of FIG. 5, the user is cooking according to the recipe in the kitchen while displaying the cooking recipe on the display 14 of the electronic device 1. At this time, the proximity sensor 18 detects a user's gesture. Then, the controller 11 performs processing based on the gesture detected by the proximity sensor 18. For example, the controller 11 can perform a process of scrolling the recipe according to a specific gesture (for example, a gesture in which the user moves the hand up and down). During cooking, the user's hand may become dirty or wet. However, the user can scroll the recipe without touching the electronic device 1. Therefore, it is possible to avoid the display 14 from becoming dirty and the stain of the display 14 from being transferred to the user's hand during cooking.

ここで、電子機器1はモードを複数有する。モードとは電子機器1の全体の動作について制限等を与える動作モード(動作状態または動作状況)を意味する。モードは同時に1つだけ選択可能である。本実施形態において、電子機器1のモードは第1モードおよび第2モードを含む。第1モードは、例えばキッチン以外の部屋および外出先等での使用に適している通常の動作モード(通常モード)である。第2モードは、キッチンでレシピを表示しながら料理を行うのに最適な電子機器1の動作モード(キッチンモード)である。上記で説明したように、第2モードの場合には、ジェスチャによる入力操作が可能であることが好ましい。つまり、電子機器1のモードが第2モードに切り替わる場合には、連動して近接センサ18を動作させてジェスチャを検出可能にすることが好ましい。本実施形態の電子機器1は、以下に説明するユーザインターフェースを備えることによって、第2モード(キッチンモード)への切り替えと近接センサ18の動作とを連動させることが可能である。   Here, the electronic device 1 has a plurality of modes. The mode means an operation mode (an operation state or an operation state) that restricts the overall operation of the electronic device 1. Only one mode can be selected at a time. In the present embodiment, the mode of the electronic device 1 includes a first mode and a second mode. The first mode is a normal operation mode (normal mode) that is suitable for use in a room other than the kitchen and a place where the user is out. The second mode is an operation mode (kitchen mode) of the electronic device 1 that is optimal for cooking while displaying a recipe in the kitchen. As described above, in the second mode, it is preferable that an input operation by a gesture is possible. That is, when the mode of the electronic device 1 is switched to the second mode, it is preferable to operate the proximity sensor 18 in conjunction with the gesture so that the gesture can be detected. The electronic device 1 according to the present embodiment includes a user interface described below, and can switch the switching to the second mode (kitchen mode) and the operation of the proximity sensor 18.

(ジェスチャの有効または無効の決定処理)
次に、電子機器1のコントローラ11による、ジェスチャの有効または無効の決定処理について説明する。コントローラ11によるジェスチャの有効または無効の決定処理は、例えば、電子機器1が上述したキッチンモードである場合に実行されてもよい。
(Process for determining whether gestures are valid or invalid)
Next, gesture valid / invalid determination processing by the controller 11 of the electronic device 1 will be described. The gesture valid / invalid determination process by the controller 11 may be executed when the electronic device 1 is in the kitchen mode described above, for example.

ユーザは、電子機器1において、ディスプレイ14に表示された画面を、一方向(例えば上下方向)に連続して操作したい場合がある。例えば、ユーザは、連続的な一方向のジェスチャによりスクロールを連続的に実行させたい場合がある。この場合、ユーザは、例えば一方向の連続的なジェスチャを行うことができる。ここで、連続的な一方向のジェスチャは、一方向のジェスチャを、例えばジェスチャを行う手を止めることなく繰り返し行うことを含む。連続的なスクロールは、画面においてするロールによる画面遷移が停止することなく行われることを含む。   In some cases, the user wants to continuously operate the screen displayed on the display 14 in one direction (for example, the vertical direction) in the electronic device 1. For example, the user may want to perform scrolling continuously with a continuous one-way gesture. In this case, the user can perform a continuous gesture in one direction, for example. Here, the continuous one-way gesture includes repeatedly performing the one-way gesture without stopping the hand performing the gesture, for example. The continuous scrolling includes that the screen transition by the roll on the screen is performed without stopping.

図6は、ユーザによる連続的なジェスチャの一例を示す図である。図6は、電子機器1の側面視を示す図であり、ユーザが手によって行うジェスチャの動きが、矢印A1で模式的に示されている。図6には、説明のため、電子機器1において、近接センサ18の位置が示されている。図6に示すように、ユーザは、連続的なジェスチャを行う場合、電子機器1の側面視において、近接センサ18の正面側で、円(楕円)を描くように(または往復運動をするように)、手を動かす動作を繰り返し行う。このとき、ユーザのジェスチャは、矢印A1のように円弧を描く動作として検出されず、例えば矢印A2および矢印A3として模式的に示すように、連続した反対方向(図6では左右方向)のジェスチャとして検出される場合がある。ユーザのジェスチャが、連続した反対方向のジェスチャとして検出されると、電子機器1のコントローラ11は、ディスプレイ14に表示された画面を、反対方向(例えば上下方向)に繰り返し遷移させることとなる。つまり、ディスプレイ14に表示された画面は、例えば上方向のスクロールと、下方向のスクロールとが繰り返し行われる状態となる。しかしながら、ユーザは、連続した一方向のスクロールを意図して操作を行っているため、電子機器1において、画面上で反対方向に繰り返し遷移させる処理を行うと、誤操作となる。   FIG. 6 is a diagram illustrating an example of continuous gestures by the user. FIG. 6 is a diagram showing a side view of the electronic apparatus 1, and the movement of the gesture performed by the user's hand is schematically indicated by an arrow A <b> 1. FIG. 6 shows the position of the proximity sensor 18 in the electronic device 1 for explanation. As shown in FIG. 6, when performing a continuous gesture, the user draws a circle (ellipse) (or reciprocates) on the front side of the proximity sensor 18 in a side view of the electronic device 1. ) Repeatedly move the hand. At this time, the user's gesture is not detected as a motion of drawing an arc as indicated by an arrow A1, but as a gesture in a continuous opposite direction (left and right in FIG. 6), for example, as schematically illustrated as an arrow A2 and an arrow A3. May be detected. When the user's gesture is detected as a continuous gesture in the opposite direction, the controller 11 of the electronic device 1 repeatedly changes the screen displayed on the display 14 in the opposite direction (for example, the vertical direction). That is, the screen displayed on the display 14 is in a state in which, for example, upward scrolling and downward scrolling are repeatedly performed. However, since the user operates with the intention of continuous scrolling in one direction, if the electronic device 1 performs a process of repeatedly transitioning in the opposite direction on the screen, an erroneous operation occurs.

本実施形態に係る電子機器1のコントローラ11は、複数のジェスチャが連続して行われた場合、最初に実行されたジェスチャ(以下、「第1のジェスチャ」ともいう)の後に、連続して行われたジェスチャ(以下、「第2のジェスチャ」ともいう)の有効または無効を決定する。第1のジェスチャは、例えば図6における矢印A2によって示されるジェスチャに対応付けることができる。第2のジェスチャは、例えば図6における矢印A3によって示されるジェスチャに対応付けることができる。   When a plurality of gestures are continuously performed, the controller 11 of the electronic device 1 according to the present embodiment continuously performs the gesture after the first performed gesture (hereinafter also referred to as “first gesture”). The validity or invalidity of the received gesture (hereinafter also referred to as “second gesture”) is determined. The first gesture can be associated with, for example, the gesture indicated by the arrow A2 in FIG. The second gesture can be associated with, for example, the gesture indicated by the arrow A3 in FIG.

コントローラ11は、第1のジェスチャと第2のジェスチャとに基づいて、第2のジェスチャの有効または無効を決定する。具体的には、コントローラ11は、第1のジェスチャに対して、第2のジェスチャが所定の条件を満たすか否かを判定し、当該判定の結果に基づいて、第2のジェスチャの有効または無効を決定する。コントローラ11は、第2のジェスチャが有効であると決定した場合、第1のジェスチャに基づく処理を実行した後、第2のジェスチャに基づく処理を実行する。コントローラ11は、第2のジェスチャが無効であると決定した場合、第1のジェスチャに基づく処理を実行するが、第2のジェスチャに基づく処理を実行しない。このようにして、電子機器1は、第2のジェスチャが、ユーザが意図するジェスチャであるか否かを判定し、第2のジェスチャがユーザが意図するジェスチャではないと判定した場合、第2のジェスチャに基づく処理を実行しない。このようにして、電子機器1は、ジェスチャによる入力操作において誤操作を防止しやすくなる。   The controller 11 determines whether the second gesture is valid or invalid based on the first gesture and the second gesture. Specifically, the controller 11 determines whether or not the second gesture satisfies a predetermined condition with respect to the first gesture, and the validity or invalidity of the second gesture is determined based on the result of the determination. To decide. When the controller 11 determines that the second gesture is valid, the controller 11 performs the process based on the second gesture after executing the process based on the first gesture. If the controller 11 determines that the second gesture is invalid, the controller 11 executes processing based on the first gesture, but does not execute processing based on the second gesture. In this way, the electronic device 1 determines whether or not the second gesture is a gesture intended by the user, and determines that the second gesture is not a gesture intended by the user. Do not perform gesture-based processing. In this way, the electronic device 1 can easily prevent an erroneous operation in an input operation using a gesture.

ここで、コントローラ11による、第2のジェスチャの有効または無効の判定条件と、判定条件に基づく有効または無効の決定処理の詳細について、いくつかの例を挙げて説明する。   Here, details of the determination condition for the validity or invalidity of the second gesture by the controller 11 and the determination process for validity or invalidity based on the determination condition will be described with some examples.

第1の判定条件は、時間に関する条件である。コントローラ11は、第1のジェスチャから第2のジェスチャまでの時間が、所定の時間以上である場合、第2のジェスチャを有効であると決定してよい。コントローラ11は、第1のジェスチャから第2のジェスチャまでの時間が、所定の時間未満である場合、第2のジェスチャを無効であると決定してよい。   The first determination condition is a condition regarding time. The controller 11 may determine that the second gesture is valid when the time from the first gesture to the second gesture is equal to or longer than a predetermined time. The controller 11 may determine that the second gesture is invalid if the time from the first gesture to the second gesture is less than a predetermined time.

第1のジェスチャから第2のジェスチャまでの時間は、例えば、第1のジェスチャが近接センサ18に検出され始めた時刻から、第2のジェスチャが近接センサ18に検出され始めた時刻までの時間であってよい。第1のジェスチャから第2のジェスチャまでの時間は、例えば、第1のジェスチャが近接センサ18に検出されなくなった時刻から、第2のジェスチャが近接センサ8に検出され始めた時刻までの時間であってもよい。   The time from the first gesture to the second gesture is, for example, the time from the time when the first gesture starts to be detected by the proximity sensor 18 to the time when the second gesture starts to be detected by the proximity sensor 18. It may be. The time from the first gesture to the second gesture is, for example, the time from the time when the first gesture is no longer detected by the proximity sensor 18 to the time when the second gesture starts to be detected by the proximity sensor 8. There may be.

所定の時間は、ユーザのジェスチャが連続的なジェスチャであると認識できる時間であってよい。例えば、第1のジェスチャから第2のジェスチャまでの時間は、例えば、第1のジェスチャが近接センサ18に検出されなくなった時刻から、第2のジェスチャが近接センサ8に検出され始めた時刻までの時間である場合、所定の時間は、0.3秒であってよい。所定の時間は、電子機器1で実行されている機能またはアプリケーション等に応じて適宜定められてもよい。   The predetermined time may be a time during which the user's gesture can be recognized as a continuous gesture. For example, the time from the first gesture to the second gesture is, for example, from the time when the first gesture is no longer detected by the proximity sensor 18 to the time when the second gesture starts to be detected by the proximity sensor 8. If it is time, the predetermined time may be 0.3 seconds. The predetermined time may be appropriately determined according to a function or application executed in the electronic device 1.

ユーザは、例えばスクロールを連続的に実行させることを意図して、連続的に一方向のジェスチャを行う場合、意図する方向のジェスチャである第1のジェスチャを連続的に行うために、手を、第1のジェスチャを開始させた位置に、素早く戻すことが想定される。そのため、ユーザが、スクロールを連続的に実行させることを意図して連続的に一方向のジェスチャを行う場合、意図する方向のジェスチャである第1のジェスチャから、意図しない方向のジェスチャである第2のジェスチャまでの時間は、所定の時間より短くなることが想定される。そこで、コントローラ11は、第1のジェスチャから第2のジェスチャまでの時間が、所定の時間未満である場合、第2のジェスチャが、意図しないジェスチャであると判定して、第2のジェスチャを無効として決定できる。これにより、コントローラ11は、意図しないジェスチャであると判定した第2のジェスチャに基づく処理を実行しない。このようにして、電子機器1は、ジェスチャによる入力操作において誤操作を防止しやすくなる。   For example, when a user continuously performs a one-way gesture with the intention of continuously executing scrolling, for example, the user performs a first gesture that is a gesture in an intended direction continuously. It is assumed that the first gesture is quickly returned to the position where it was started. Therefore, when the user performs a one-way gesture continuously with the intention of continuously executing scrolling, the first gesture that is a gesture in the intended direction is changed to the second that is a gesture in an unintended direction. It is assumed that the time until this gesture is shorter than a predetermined time. Therefore, when the time from the first gesture to the second gesture is less than the predetermined time, the controller 11 determines that the second gesture is an unintended gesture and invalidates the second gesture. Can be determined as Thereby, the controller 11 does not execute processing based on the second gesture determined to be an unintended gesture. In this way, the electronic device 1 can easily prevent an erroneous operation in an input operation using a gesture.

第2の条件は、方向に関する条件である。コントローラ11は、第1のジェスチャの方向と、第2のジェスチャの方向とが、所定の関係を有する方向であると判断した場合、第2のジェスチャを無効であると決定してよい。コントローラ11は、第1のジェスチャの方向と、第2のジェスチャの方向とが、上記所定の関係を有さない方向であると判定した場合、第2のジェスチャを無効であると決定してよい。   The second condition is a condition related to the direction. If the controller 11 determines that the direction of the first gesture and the direction of the second gesture have a predetermined relationship, the controller 11 may determine that the second gesture is invalid. If the controller 11 determines that the direction of the first gesture and the direction of the second gesture are directions that do not have the predetermined relationship, the controller 11 may determine that the second gesture is invalid. .

所定の関係は、例えば、反対方向であるという関係であってよい。つまり、この場合、コントローラ11は、第1のジェスチャの方向と、第2のジェスチャの方向とが、反対方向であると判断した場合、第2のジェスチャを無効であると決定してよい。この場合、コントローラ11は、第1のジェスチャの方向と、第2のジェスチャの方向とが、反対方向でないと判断した場合(例えば同一方向または直交する方向である場合)、第2のジェスチャを無効であると決定してよい。   The predetermined relationship may be, for example, a relationship in the opposite direction. That is, in this case, the controller 11 may determine that the second gesture is invalid when it is determined that the direction of the first gesture and the direction of the second gesture are opposite directions. In this case, if the controller 11 determines that the direction of the first gesture and the direction of the second gesture are not opposite directions (for example, the same direction or a direction perpendicular to each other), the controller 11 invalidates the second gesture. May be determined.

ユーザは、例えばスクロールを連続的に実行させることを意図して、連続的に一方向のジェスチャを行う場合、意図する方向のジェスチャである第1のジェスチャを連続的に行うために、第1のジェスチャを行った後、手を、第1のジェスチャを開始させた位置に戻すことが想定される。そのため、第2のジェスチャは、第1のジェスチャとは反対方向のジェスチャであることが想定される。そこで、コントローラ11は、第1のジェスチャの方向と、第2のジェスチャの方向とが、所定の関係(反対方向の関係)である場合、第2のジェスチャが、意図しないジェスチャであると判定して、第2のジェスチャを無効として決定できる。これにより、コントローラ11は、意図しないジェスチャであると判定した第2のジェスチャに基づく処理を実行しない。このようにして、電子機器1は、ジェスチャによる入力操作において誤操作を防止しやすくなる。   For example, when a user continuously performs a one-way gesture with the intention of continuously executing scrolling, the user performs the first gesture, which is a gesture in the intended direction, continuously. It is envisaged that after performing the gesture, the hand is returned to the position where the first gesture was initiated. Therefore, it is assumed that the second gesture is a gesture in the opposite direction to the first gesture. Therefore, the controller 11 determines that the second gesture is an unintended gesture when the direction of the first gesture and the direction of the second gesture have a predetermined relationship (a relationship in the opposite direction). Thus, the second gesture can be determined as invalid. Thereby, the controller 11 does not execute processing based on the second gesture determined to be an unintended gesture. In this way, the electronic device 1 can easily prevent an erroneous operation in an input operation using a gesture.

第3の条件は、距離に関する条件である。コントローラ11は、第1のジェスチャが行われた位置と近接センサ18との距離(第1の距離)が、第2のジェスチャが行われた位置と近接センサ18との距離(第2の距離)以上である場合、第2のジェスチャを有効であると決定してよい。コントローラ11は、第1のジェスチャが行われた位置と近接センサ18との距離(第1の距離)が、第2のジェスチャが行われた位置と近接センサ18との距離(第2の距離)よりも小さい場合、第2のジェスチャを無効であると決定してよい。   The third condition is a condition related to distance. The controller 11 determines that the distance (first distance) between the position where the first gesture is performed and the proximity sensor 18 is the distance between the position where the second gesture is performed and the proximity sensor 18 (second distance). If so, the second gesture may be determined to be valid. The controller 11 determines that the distance (first distance) between the position where the first gesture is performed and the proximity sensor 18 is the distance between the position where the second gesture is performed and the proximity sensor 18 (second distance). If not, the second gesture may be determined to be invalid.

図6において、第1の距離は、一例としてD1で示されている。第1の距離は、例えば、第1のジェスチャにおいて、近接センサ18との距離が最も近い地点に位置する場合における、第1のジェスチャと近接センサ18との距離であってよい。第1の距離は、例えば、第1のジェスチャにおける、近接センサ18との平均距離であってもよい。   In FIG. 6, the first distance is indicated by D1 as an example. The first distance may be, for example, the distance between the first gesture and the proximity sensor 18 when the first gesture is located at the closest point to the proximity sensor 18. For example, the first distance may be an average distance from the proximity sensor 18 in the first gesture.

図6において、第2の距離は、一例としてD2で示されている。第2の距離は、例えば、第2のジェスチャにおいて、近接センサ18との距離が最も近い地点に位置する場合における、第2のジェスチャと近接センサ18との距離であってよい。第2の距離は、例えば、第2のジェスチャにおける、近接センサ18との平均距離であってもよい。   In FIG. 6, the second distance is indicated by D2 as an example. The second distance may be, for example, the distance between the second gesture and the proximity sensor 18 in the case where the second gesture is located at the closest point to the proximity sensor 18. For example, the second distance may be an average distance from the proximity sensor 18 in the second gesture.

第1の距離と第2の距離とは、上述の例に限られず、その定義が同一である限り(つまり同一の基準に基づいて決定される限り)、任意の定義により決定されてよい。   The first distance and the second distance are not limited to the above-described example, and may be determined according to any definition as long as the definitions are the same (that is, determined based on the same reference).

ユーザは、例えばスクロールを連続的に実行させることを意図して、連続的に一方向のジェスチャを行う場合、意図する方向のジェスチャである第1のジェスチャを、近接センサ18により検出されやすくするため、近接センサ18に近い位置で行うことが想定される。また、ユーザは、連続的に一方向のジェスチャを行う場合、意図しない方向のジェスチャである第2のジェスチャを、第1のジェスチャと比較して、より近接センサ18から遠い位置で行うことが想定される。つまり、第2のジェスチャは、第1のジェスチャと比較して、近接センサ18から、より遠い位置で行われることが想定される。そこで、コントローラ11は、第1の距離が、第2の距離よりも小さい場合、第2のジェスチャが、意図しないジェスチャであると判定して、第2のジェスチャを無効として決定できる。これにより、コントローラ11は、意図しないジェスチャであると判定した第2のジェスチャに基づく処理を実行しない。このようにして、電子機器1は、ジェスチャによる入力操作において誤操作を防止しやすくなる。   For example, when the user performs a continuous gesture in one direction with the intention of continuously executing scrolling, for example, the proximity sensor 18 can easily detect the first gesture that is a gesture in the intended direction. It is assumed that the measurement is performed at a position close to the proximity sensor 18. In addition, when the user continuously performs a gesture in one direction, it is assumed that the second gesture, which is a gesture in an unintended direction, is performed at a position farther from the proximity sensor 18 than the first gesture. Is done. That is, it is assumed that the second gesture is performed at a position farther from the proximity sensor 18 than the first gesture. Therefore, when the first distance is smaller than the second distance, the controller 11 determines that the second gesture is an unintended gesture and can determine that the second gesture is invalid. Thereby, the controller 11 does not execute processing based on the second gesture determined to be an unintended gesture. In this way, the electronic device 1 can easily prevent an erroneous operation in an input operation using a gesture.

第4の条件は、速度に関する条件である。コントローラ11は、第1のジェスチャの速度(第1の速度)が、第2のジェスチャの速度(第2の速度)よりも遅い場合、第2のジェスチャを有効であると決定してよい。コントローラ11は、第1のジェスチャの速度(第1の速度)が、第2のジェスチャの速度(第2の速度)よりも速い場合、第2のジェスチャを無効であると決定してよい。   The fourth condition is a condition related to speed. The controller 11 may determine that the second gesture is valid when the speed of the first gesture (first speed) is slower than the speed of the second gesture (second speed). The controller 11 may determine that the second gesture is invalid if the speed of the first gesture (first speed) is faster than the speed of the second gesture (second speed).

第1の速度は、図6の矢印A2として検出されるジェスチャの速度である。第2の速度は、図6の矢印A3として検出されるジェスチャの速度である。コントローラ11は、近接センサ18が検出したジェスチャに基づいて、ジェスチャの速度を算出し、第1の速度と第2の速度とを比較する。   The first speed is the speed of the gesture detected as an arrow A2 in FIG. The second speed is a gesture speed detected as an arrow A3 in FIG. The controller 11 calculates the speed of the gesture based on the gesture detected by the proximity sensor 18 and compares the first speed and the second speed.

ユーザは、例えばスクロールを連続的に実行させることを意図して、連続的に一方向のジェスチャを行う場合、意図する方向のジェスチャである第1のジェスチャを所定の速度のジェスチャとして行い、その後、手を、第1のジェスチャを開始させた位置に戻す。このとき、手を第1のジェスチャを開始させた位置に戻す動作である第2のジェスチャは、ユーザが意図するジェスチャではないため、第1のジェスチャと比較して、動作が遅くなることが想定される。つまり、第2のジェスチャは、第1のジェスチャよりも動作が遅いことが想定される。そこで、コントローラ11は、第1の速度が第2の速度よりも速い場合、第2のジェスチャが、意図しないジェスチャであると判定して、第2のジェスチャを無効として決定できる。これにより、コントローラ11は、意図しないジェスチャであると判定した第2のジェスチャに基づく処理を実行しない。このようにして、電子機器1は、ジェスチャによる入力操作において誤操作を防止しやすくなる。   For example, when the user continuously performs a one-way gesture with the intention of continuously executing scrolling, for example, the user performs the first gesture, which is a gesture in the intended direction, as a gesture at a predetermined speed. Return the hand to the position where the first gesture was initiated. At this time, since the second gesture, which is an operation of returning the hand to the position where the first gesture is started, is not a gesture intended by the user, it is assumed that the operation is slower than the first gesture. Is done. That is, it is assumed that the second gesture operates slower than the first gesture. Therefore, when the first speed is higher than the second speed, the controller 11 determines that the second gesture is an unintended gesture, and can determine that the second gesture is invalid. Thereby, the controller 11 does not execute processing based on the second gesture determined to be an unintended gesture. In this way, the electronic device 1 can easily prevent an erroneous operation in an input operation using a gesture.

コントローラ11は、上述した第1の条件乃至第4の条件のうち、任意の複数の条件を組み合わせて第2のジェスチャの有効または無効を決定してもよい。すなわち、コントローラ11は、第1のジェスチャから第2のジェスチャまでの時間、第1のジェスチャと第2のジェスチャとの方向、第1のジェスチャが行われた位置と近接センサ18との距離および第2のジェスチャが行われた位置と近接センサ18との距離、並びに、第1のジェスチャと第2のジェスチャとの速度の条件のうち、任意の2つ以上の条件に基づいて、第2のジェスチャの有効または無効を決定してもよい。   The controller 11 may determine whether the second gesture is valid or invalid by combining any of the first to fourth conditions described above. That is, the controller 11 determines the time from the first gesture to the second gesture, the direction between the first gesture and the second gesture, the distance between the position where the first gesture is performed and the proximity sensor 18, and the first gesture. The second gesture based on any two or more conditions of the distance between the position where the second gesture is performed and the proximity sensor 18 and the speed condition between the first gesture and the second gesture. The validity or invalidity may be determined.

このとき、コントローラ11は、ジェスチャの有効または無効を決定するための各条件について、条件に応じて重みづけを行って、第2のジェスチャの有効または無効を決定してもよい。例えば、ユーザが連続的に一方向のジェスチャを行う場合、第1のジェスチャの後に、手を、第1のジェスチャを開始させた位置に戻す必要があるため、第2のジェスチャは、第1のジェスチャと第2のジェスチャとの方向が、逆方向になりやすい。つまり、第2の条件として説明した、ジェスチャの方向に関する条件は満たされやすい。これに対し、例えば、第3の条件で説明した、ジェスチャと近接センサ18との距離の関係については、ユーザによっては、必ずしも満たされない場合がある。例えば、ユーザによっては、連続的に一方向のジェスチャを行う場合であっても、第1の距離が、第2の距離以上となる場合がある。つまり、第3の条件として説明した、距離の関係に関する条件は、第2の条件として説明した、ジェスチャの方向に関する条件よりも、満たされにくい。この場合、コントローラ11は、例えば第3の条件よりも第2の条件が、より高く点数化されるように、重みづけを行ってよい。このように、コントローラ11は、第2のジェスチャの有効または無効を決定するために用いる条件の内容に応じて、適宜重みづけを行ってよい。コントローラ11は、重みづけを行うことにより、第2のジェスチャが被検者が意図したジェスチャであるか否かを、より正確に判定しやすくなる。   At this time, the controller 11 may determine the validity or invalidity of the second gesture by weighting each condition for determining the validity or invalidity of the gesture according to the condition. For example, if the user continuously makes a one-way gesture, after the first gesture it is necessary to return the hand to the position where the first gesture was initiated, so the second gesture is the first gesture The direction of the gesture and the second gesture is likely to be opposite. That is, the condition regarding the direction of the gesture described as the second condition is easily satisfied. On the other hand, for example, the relationship between the distance between the gesture and the proximity sensor 18 described in the third condition may not always be satisfied depending on the user. For example, depending on the user, the first distance may be equal to or greater than the second distance even when gestures are continuously performed in one direction. That is, the condition related to the distance relationship described as the third condition is less likely to be satisfied than the condition related to the gesture direction described as the second condition. In this case, the controller 11 may perform weighting so that, for example, the second condition is scored higher than the third condition. As described above, the controller 11 may appropriately perform weighting according to the content of the condition used to determine whether the second gesture is valid or invalid. By performing the weighting, the controller 11 can more easily determine whether or not the second gesture is a gesture intended by the subject.

図7は、電子機器1が実行する処理の一例を示すフローチャートである。   FIG. 7 is a flowchart illustrating an example of processing executed by the electronic device 1.

まず、電子機器1のコントローラ11は、近接センサ18の出力に基づき、第1のジェスチャを検出する(ステップS1)。   First, the controller 11 of the electronic device 1 detects the first gesture based on the output of the proximity sensor 18 (step S1).

コントローラ11は、ステップS1で検出した第1のジェスチャに基づく処理を実行する(ステップS2)。   The controller 11 executes processing based on the first gesture detected in step S1 (step S2).

コントローラ11は、近接センサ18の出力に基づき、第2のジェスチャを検出する(ステップS3)。   The controller 11 detects the second gesture based on the output of the proximity sensor 18 (step S3).

コントローラ11は、第2のジェスチャが有効であるか否かを判定する(ステップS4)。具体的には、コントローラ11は、上述した条件を用いることによって、第2のジェスチャが有効であるか否かを判定してよい。   The controller 11 determines whether or not the second gesture is valid (step S4). Specifically, the controller 11 may determine whether the second gesture is valid by using the above-described conditions.

コントローラ11は、第2のジェスチャが有効であると判定した場合(ステップS4のYes)、第2のジェスチャに基づく処理を実行する(ステップS5)。そして、コントローラ11は、このフローを終了する。   If the controller 11 determines that the second gesture is valid (Yes in step S4), the controller 11 executes a process based on the second gesture (step S5). And the controller 11 complete | finishes this flow.

コントローラ11は、第2のジェスチャが無効であると判定した場合(ステップS4のNo)、第2のジェスチャがユーザの意図しないジェスチャであると判定し、第2のジェスチャに基づく処理を実行することなく、このフローを終了する。   When it is determined that the second gesture is invalid (No in step S4), the controller 11 determines that the second gesture is a gesture not intended by the user, and executes processing based on the second gesture. This flow is finished.

以上説明したように、本実施形態に係る電子機器1は、第1のジェスチャと第2のジェスチャとに基づいて、第2のジェスチャの有効または無効を決定する。これにより、電子機器1は、第2のジェスチャが、ユーザが意図するジェスチャであるか否かを判定し、第2のジェスチャがユーザが意図するジェスチャではないと判定した場合、第2のジェスチャに基づく処理を実行しないように処理を行う。このようにして、電子機器1は、ジェスチャによる入力操作において誤操作を防止しやすくなる。   As described above, the electronic apparatus 1 according to the present embodiment determines whether the second gesture is valid or invalid based on the first gesture and the second gesture. As a result, the electronic device 1 determines whether or not the second gesture is a gesture intended by the user, and determines that the second gesture is not a gesture intended by the user. Processing is performed so as not to execute processing based on it. In this way, the electronic device 1 can easily prevent an erroneous operation in an input operation using a gesture.

(その他の実施形態)
本発明を図面および実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形および修正を行うことが容易であることに注意されたい。したがって、これらの変形および修正は本発明の範囲に含まれることに留意されたい。例えば、各手段または各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段またはステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
(Other embodiments)
Although the present invention has been described based on the drawings and embodiments, it should be noted that those skilled in the art can easily make various variations and modifications based on the present disclosure. Therefore, it should be noted that these variations and modifications are included in the scope of the present invention. For example, functions included in each means or each step can be rearranged so as not to be logically contradictory, and a plurality of means or steps can be combined into one or divided. .

上記の実施形態では、ジェスチャは、近接センサ18により検出されると説明したが、必ずしも近接センサ18により検出されなくてもよい。ジェスチャは、任意の非接触でユーザのジェスチャを検出可能な、任意の非接触センサにより検出されてもよい。非接触センサの一例は、例えば、カメラ13または照度センサ20等を含む。   In the above embodiment, it has been described that the gesture is detected by the proximity sensor 18, but the gesture may not necessarily be detected by the proximity sensor 18. The gesture may be detected by any non-contact sensor that can detect the user's gesture without any contact. An example of the non-contact sensor includes, for example, the camera 13 or the illuminance sensor 20.

また、上述の実施形態で説明した、第2のジェスチャの有効または無効を決定する条件は、無効であると決定する対象となるジェスチャの内容に応じて、適宜設定可能である。例えば、上述の実施形態では、第2の条件について、コントローラ11は、第1のジェスチャの方向と第2のジェスチャの方向とが反対方向である場合に、第2のジェスチャを無効であると決定すると説明した。しかしながら、第2の条件は、コントローラ11が、第1のジェスチャの方向と第2のジェスチャの方向とが同一の方向である場合に、第2のジェスチャを無効であると決定する、というものであってもよい。   In addition, the condition for determining whether the second gesture is valid or invalid described in the above-described embodiment can be appropriately set according to the content of the gesture to be determined to be invalid. For example, in the above-described embodiment, for the second condition, the controller 11 determines that the second gesture is invalid when the direction of the first gesture and the direction of the second gesture are opposite directions. Then explained. However, the second condition is that the controller 11 determines that the second gesture is invalid when the direction of the first gesture and the direction of the second gesture are the same direction. There may be.

例えば、図8に示すように、ユーザが指の間隔を空けた状態で、ジェスチャを行ったとする。この場合、コントローラ11は、近接センサ18の出力に基づき、ユーザの小指、薬指、中指、人差し指および親指のジェスチャを、それぞれ異なるジェスチャと検出し、各指に対応する5回分のジェスチャを検出する可能性がある。しかしながら、実際には、ユーザは、手を下から上に動かしたことによる、1回分のジェスチャを意図しているとする。この場合、コントローラ11が、ユーザのジェスチャを、5回分のジェスチャと検出すると、誤操作の原因となる。   For example, as shown in FIG. 8, it is assumed that the user performs a gesture with a finger interval. In this case, the controller 11 can detect the gestures of the user's little finger, ring finger, middle finger, forefinger, and thumb as different gestures based on the output of the proximity sensor 18, and can detect five gestures corresponding to each finger. There is sex. However, in reality, it is assumed that the user intends one gesture by moving his / her hand from the bottom to the top. In this case, if the controller 11 detects the user's gesture as five gestures, it may cause an erroneous operation.

しかしながら、第2の条件を、コントローラ11が、第1のジェスチャの方向と第2のジェスチャの方向とが同一の方向である場合に、第2のジェスチャを無効であると決定する、という条件とすることにより、同一方向である5本の指のジェスチャが、それぞれ異なるジェスチャであると判定されなくなる。これにより、誤操作を防止しやすくなる。   However, the second condition is a condition that the controller 11 determines that the second gesture is invalid when the direction of the first gesture and the direction of the second gesture are the same direction. By doing so, the gestures of the five fingers in the same direction are not determined to be different gestures. Thereby, it becomes easy to prevent an erroneous operation.

本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、例えば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機またはその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作または制御方法は、プログラム命令(ソフトウェア)で実装された専用回路(例えば、特定機能を実行するために相互接続された個別の論理ゲート)、一以上のプロセッサにより実行される論理ブロックおよび/またはプログラムモジュール等により実行されることに留意されたい。論理ブロックおよび/またはプログラムモジュール等を実行する一以上のプロセッサには、例えば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置および/またはこれらいずれかの組合せが含まれる。ここに示す実施形態は、例えば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコードまたはコードセグメントであってもよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラスまたは命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってもよい。コードセグメントは、他のコードセグメントまたはハードウェア回路と、情報、データ引数、変数または記憶内容の送信および/または受信を行い、これにより、コードセグメントが他のコードセグメントまたはハードウェア回路と接続される。   Many aspects of the present disclosure are presented as a series of operations performed by a computer system or other hardware capable of executing program instructions. The computer system and other hardware include, for example, a general-purpose computer, a PC (personal computer), a dedicated computer, a workstation, a PCS (Personal Communications System), a mobile (cellular) telephone, and a data processing function. Mobile phones, RFID receivers, game consoles, electronic notepads, laptop computers, GPS (Global Positioning System) receivers or other programmable data processing devices are included. In each embodiment, various operations or control methods are performed by dedicated circuitry (eg, individual logic gates interconnected to perform specific functions) implemented by program instructions (software), one or more processors. Note that it is executed by a logical block and / or a program module. The one or more processors that execute logic blocks and / or program modules include, for example, one or more microprocessors, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), a DSP (Digital Signal Processor), and a PLD. (Programmable Logic Device), FPGA (Field Programmable Gate Array), processor, controller, microcontroller, microprocessor, electronic equipment, other devices designed to perform the functions described herein, and / or any combination thereof Is included. The embodiments shown here are implemented by, for example, hardware, software, firmware, middleware, microcode, or any combination thereof. The instructions may be program code or code segments for performing the necessary tasks. The instructions can then be stored on a machine-readable non-transitory storage medium or other medium. A code segment may represent any combination of procedures, functions, subprograms, programs, routines, subroutines, modules, software packages, classes or instructions, data structures or program statements. A code segment transmits and / or receives information, data arguments, variables or stored contents with other code segments or hardware circuits, thereby connecting the code segments with other code segments or hardware circuits .

ここで用いられるストレージ16は、さらに、ソリッドステートメモリ、磁気ディスクおよび光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができる。かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュール等のコンピュータ命令の適宜なセットまたはデータ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気および光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスクおよびブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)もしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体またはこれらいずれかの組合せが含まれる。メモリは、プロセッサまたはプロセッシングユニットの内部および/または外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性またはその他のメモリを意味する。つまり、「メモリ」は特定の種類および/または数に限定されない。また、記憶が格納される媒体の種類も限定されない。   The storage 16 used here can be further configured as a computer-readable tangible carrier (medium) composed of solid state memory, magnetic disk and optical disk. Such a medium stores an appropriate set of computer instructions or a data structure such as a program module for causing a processor to execute the technology disclosed herein. Computer readable media include electrical connections with one or more wires, magnetic disk storage media, magnetic cassettes, magnetic tape, and other magnetic and optical storage devices (eg, CD (Compact Disk), laser disks ( (Registered trademark), DVD (registered trademark) (Digital Versatile Disc), floppy (registered trademark) disk and Blu-ray Disc (registered trademark)), portable computer disk, RAM (Random Access Memory), ROM (Read-Only Memory), EPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), flash memory, rewritable and programmable ROM, other tangible storage media capable of storing information, or any combination thereof Is included. The memory can be provided inside and / or outside the processor or processing unit. As used herein, the term “memory” means any kind of long-term storage, short-term storage, volatile, non-volatile or other memory. That is, the “memory” is not limited to a specific type and / or number. Further, the type of medium in which the storage is stored is not limited.

1 電子機器
11 コントローラ
12 タイマー
13 カメラ
14 ディスプレイ
15 マイク
16 ストレージ
17 通信ユニット
18 近接センサ
19 UVセンサ
20 照度センサ
21 加速度センサ
22 地磁気センサ
23 気圧センサ
24 ジャイロセンサ
25 スピーカー
140,141 選択ボタン
180 光源用赤外LED
181 レンズ
SU,SR,SD,SL フォトダイオード
DESCRIPTION OF SYMBOLS 1 Electronic device 11 Controller 12 Timer 13 Camera 14 Display 15 Microphone 16 Storage 17 Communication unit 18 Proximity sensor 19 UV sensor 20 Illuminance sensor 21 Acceleration sensor 22 Geomagnetic sensor 23 Barometric pressure sensor 24 Gyro sensor 25 Speaker 140,141 Selection button 180 Red for light source Outside LED
181 Lens SU, SR, SD, SL Photodiode

Claims (8)

近接センサと、
前記近接センサからの出力に応じてジェスチャに基づく処理を実行するコントローラと、
を備え、
前記コントローラは、前記近接センサからの出力に応じて第1のジェスチャの後に第2のジェスチャが検出されると、前記第1のジェスチャと前記第2のジェスチャとに基づいて、前記第2のジェスチャの有効または無効を決定する、
電子機器。
A proximity sensor;
A controller that executes processing based on a gesture according to an output from the proximity sensor;
With
When the second gesture is detected after the first gesture according to the output from the proximity sensor, the controller detects the second gesture based on the first gesture and the second gesture. Determine whether to enable or disable
Electronics.
前記コントローラは、
前記第1のジェスチャから前記第2のジェスチャまでの時間が、所定の時間以上である場合、前記第2のジェスチャを有効であると決定し、
前記第1のジェスチャから前記第2のジェスチャまでの時間が、前記所定の時間未満である場合、前記第2のジェスチャを無効であると決定する、
請求項1に記載の電子機器。
The controller is
If the time from the first gesture to the second gesture is greater than or equal to a predetermined time, determine that the second gesture is valid;
Determining that the second gesture is invalid if the time from the first gesture to the second gesture is less than the predetermined time;
The electronic device according to claim 1.
前記コントローラは、前記第1のジェスチャの方向と、前記第2のジェスチャの方向とが、反対方向であると判断した場合、前記第2のジェスチャを無効であると決定する、請求項1に記載の電子機器。   2. The controller according to claim 1, wherein when the controller determines that the direction of the first gesture and the direction of the second gesture are opposite directions, the controller determines that the second gesture is invalid. Electronic equipment. 前記コントローラは、
前記第1のジェスチャが行われた位置と前記近接センサとの距離が、前記第2のジェスチャが行われた位置と前記近接センサとの距離以上である場合、前記第2のジェスチャを有効であると決定し、
前記第1のジェスチャが行われた位置と前記近接センサとの距離が、前記第2のジェスチャが行われた位置と前記近接センサとの距離よりも小さい場合、前記第2のジェスチャを無効であると決定する、
請求項1に記載の電子機器。
The controller is
When the distance between the position where the first gesture is performed and the proximity sensor is equal to or greater than the distance between the position where the second gesture is performed and the proximity sensor, the second gesture is effective. And
If the distance between the position where the first gesture is performed and the proximity sensor is smaller than the distance between the position where the second gesture is performed and the proximity sensor, the second gesture is invalid. To decide,
The electronic device according to claim 1.
前記コントローラは、
前記第1のジェスチャの速度が、前記第2のジェスチャの速度よりも遅い場合、前記第2のジェスチャを有効であると決定し、
前記第1のジェスチャの速度が、前記第2のジェスチャの速度よりも速い場合、前記第2のジェスチャを無効であると決定する、
請求項1に記載の電子機器。
The controller is
If the speed of the first gesture is slower than the speed of the second gesture, determine that the second gesture is valid;
Determining that the second gesture is invalid if the speed of the first gesture is faster than the speed of the second gesture;
The electronic device according to claim 1.
前記コントローラは、前記第1のジェスチャから前記第2のジェスチャまでの時間、前記第1のジェスチャと前記第2のジェスチャとの方向、前記第1のジェスチャが行われた位置と前記近接センサとの距離および前記第2のジェスチャが行われた位置と前記近接センサとの距離、並びに、前記第1のジェスチャと前記第2のジェスチャとの速度の条件のうち、少なくとも2つ以上の条件に基づいて、前記第2のジェスチャの有効または無効を決定する、請求項1に記載の電子機器。   The controller includes a time from the first gesture to the second gesture, a direction between the first gesture and the second gesture, a position where the first gesture is performed, and the proximity sensor. Based on at least two or more conditions among a distance, a distance between the position where the second gesture is performed and the proximity sensor, and a speed condition between the first gesture and the second gesture The electronic device according to claim 1, wherein validity or invalidity of the second gesture is determined. 近接センサと、コントローラと、を備える電子機器に、
前記コントローラにより、前記近接センサからの出力に応じてジェスチャに基づく処理を実行するステップと、
前記コントローラにより、前記近接センサからの出力に応じて第1のジェスチャの後に第2のジェスチャが検出されると、前記第1のジェスチャと前記第2のジェスチャとに基づいて、前記第2のジェスチャの有効または無効を決定するステップと、
を実行させるプログラム。
In an electronic device including a proximity sensor and a controller,
Executing a process based on a gesture according to an output from the proximity sensor by the controller;
When the controller detects a second gesture after the first gesture according to the output from the proximity sensor, the second gesture is performed based on the first gesture and the second gesture. Determining whether to enable or disable
A program that executes
近接センサと、コントローラと、を備える電子機器の制御方法であって、
前記コントローラにより、前記近接センサからの出力に応じてジェスチャに基づく処理を実行するステップと、
前記コントローラにより、前記近接センサからの出力に応じて第1のジェスチャの後に第2のジェスチャが検出されると、前記第1のジェスチャと前記第2のジェスチャとに基づいて、前記第2のジェスチャの有効または無効を決定するステップと、
を含む制御方法。
A method for controlling an electronic device comprising a proximity sensor and a controller,
Executing a process based on a gesture according to an output from the proximity sensor by the controller;
When the controller detects a second gesture after the first gesture according to the output from the proximity sensor, the second gesture is performed based on the first gesture and the second gesture. Determining whether to enable or disable
Control method.
JP2017000238A 2017-01-04 2017-01-04 Electronic device, program, and control method Active JP6173625B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017000238A JP6173625B1 (en) 2017-01-04 2017-01-04 Electronic device, program, and control method
US15/855,509 US20180188817A1 (en) 2017-01-04 2017-12-27 Electronic device, computer-readable non-transitory recording medium, and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017000238A JP6173625B1 (en) 2017-01-04 2017-01-04 Electronic device, program, and control method

Publications (2)

Publication Number Publication Date
JP6173625B1 JP6173625B1 (en) 2017-08-02
JP2018109874A true JP2018109874A (en) 2018-07-12

Family

ID=59505146

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017000238A Active JP6173625B1 (en) 2017-01-04 2017-01-04 Electronic device, program, and control method

Country Status (1)

Country Link
JP (1) JP6173625B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020050636A1 (en) * 2018-09-07 2020-03-12 삼성전자 주식회사 User intention-based gesture recognition method and apparatus

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010182014A (en) * 2009-02-04 2010-08-19 Toshiba Corp Gesture recognition apparatus, method and program therefor
JP2012234317A (en) * 2011-04-28 2012-11-29 Ntt Docomo Inc Display device, control method for display device and program
JP2012234316A (en) * 2011-04-28 2012-11-29 Ntt Docomo Inc Display device, control method for display device and program
JP2013037499A (en) * 2011-08-05 2013-02-21 Toshiba Corp Gesture recognition device, gesture recognition method, and gesture recognition program
JP2013131237A (en) * 2013-03-07 2013-07-04 Fujitsu Ten Ltd Display device
JP2013235443A (en) * 2012-05-09 2013-11-21 Konica Minolta Inc Image forming apparatus, flick operation receiving method, and flick operation receiving program
JP2013242836A (en) * 2012-04-27 2013-12-05 Panasonic Corp Input device, input support method, and program
JP2015125670A (en) * 2013-12-27 2015-07-06 日立マクセル株式会社 Image projector
JP2016218899A (en) * 2015-05-25 2016-12-22 コニカミノルタ株式会社 Wearable electronic device, and gesture detection method of wearable electronic device

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010182014A (en) * 2009-02-04 2010-08-19 Toshiba Corp Gesture recognition apparatus, method and program therefor
JP2012234317A (en) * 2011-04-28 2012-11-29 Ntt Docomo Inc Display device, control method for display device and program
JP2012234316A (en) * 2011-04-28 2012-11-29 Ntt Docomo Inc Display device, control method for display device and program
JP2013037499A (en) * 2011-08-05 2013-02-21 Toshiba Corp Gesture recognition device, gesture recognition method, and gesture recognition program
JP2013242836A (en) * 2012-04-27 2013-12-05 Panasonic Corp Input device, input support method, and program
JP2013235443A (en) * 2012-05-09 2013-11-21 Konica Minolta Inc Image forming apparatus, flick operation receiving method, and flick operation receiving program
JP2013131237A (en) * 2013-03-07 2013-07-04 Fujitsu Ten Ltd Display device
JP2015125670A (en) * 2013-12-27 2015-07-06 日立マクセル株式会社 Image projector
JP2016218899A (en) * 2015-05-25 2016-12-22 コニカミノルタ株式会社 Wearable electronic device, and gesture detection method of wearable electronic device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020050636A1 (en) * 2018-09-07 2020-03-12 삼성전자 주식회사 User intention-based gesture recognition method and apparatus
KR20200028771A (en) * 2018-09-07 2020-03-17 삼성전자주식회사 Electronic device and method for recognizing user gestures based on user intention
US11416080B2 (en) 2018-09-07 2022-08-16 Samsung Electronics Co., Ltd. User intention-based gesture recognition method and apparatus
KR102582863B1 (en) 2018-09-07 2023-09-27 삼성전자주식회사 Electronic device and method for recognizing user gestures based on user intention

Also Published As

Publication number Publication date
JP6173625B1 (en) 2017-08-02

Similar Documents

Publication Publication Date Title
JP6293953B1 (en) Electronic device, program, and control method
JP6091693B1 (en) Electronics
US10775998B2 (en) Electronic device and control method
JP6101881B1 (en) Electronic device, program, and control method
US11269417B2 (en) Electronic device configured to communicate with an intercom, and control method thereof
JP2018018288A (en) Electronic device
WO2018193876A1 (en) Electronic device
JP6163278B1 (en) Electronic device, program, and control method
US20180081536A1 (en) Electronic device
US20180188817A1 (en) Electronic device, computer-readable non-transitory recording medium, and control method
JP6173625B1 (en) Electronic device, program, and control method
JP6113345B1 (en) Electronics
JP6295363B1 (en) Electronic device, program, and control method
JP6235175B1 (en) Electronic device, program, and control method
JP2018181351A (en) Electronic device
JP6637089B2 (en) Electronic device, program and control method
JP6346699B1 (en) Electronics
JP6163274B1 (en) Electronic device, program, and control method
JP6333461B1 (en) Electronics
JP2018109955A (en) Electronic device, program and control method
JP2018109873A (en) Electronic device, program and control method
JP2018110370A (en) Electronic device, program and control method
JP2018109871A (en) Electronic device
JP2019149825A (en) Electronic device, program, and control method
JP2019040591A (en) Electronic device, program and control method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170704

R150 Certificate of patent or registration of utility model

Ref document number: 6173625

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150