JP6387204B2 - Electronic device and control method - Google Patents

Electronic device and control method Download PDF

Info

Publication number
JP6387204B2
JP6387204B2 JP2018103989A JP2018103989A JP6387204B2 JP 6387204 B2 JP6387204 B2 JP 6387204B2 JP 2018103989 A JP2018103989 A JP 2018103989A JP 2018103989 A JP2018103989 A JP 2018103989A JP 6387204 B2 JP6387204 B2 JP 6387204B2
Authority
JP
Japan
Prior art keywords
screen
gesture
electronic device
controller
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018103989A
Other languages
Japanese (ja)
Other versions
JP2018139148A (en
Inventor
茂輝 田辺
茂輝 田辺
英樹 森田
英樹 森田
功 益池
功 益池
信弥 齋藤
信弥 齋藤
康 北村
康 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2018103989A priority Critical patent/JP6387204B2/en
Application granted granted Critical
Publication of JP6387204B2 publication Critical patent/JP6387204B2/en
Publication of JP2018139148A publication Critical patent/JP2018139148A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は電子機器及び制御方法に関する。   The present invention relates to an electronic device and a control method.

従来、ユーザが端末から離れて行うジェスチャを赤外線センサにより認識し、表示される画面に対して、ジェスチャと対応する入力操作を実行する携帯端末が知られている(例えば特許文献1)。   2. Description of the Related Art Conventionally, a portable terminal that recognizes a gesture performed by a user away from a terminal using an infrared sensor and performs an input operation corresponding to the gesture on a displayed screen is known (for example, Patent Document 1).

特開2015−225493号公報Japanese Patent Laying-Open No. 2015-225493

上記携帯端末に表示される画面の数は1つであり、ユーザは、当該1つの画面に対してのみ操作を行うことができる。そのため、ユーザが他の画面を参照したい場合、ユーザは表示されている画面を切り換えて、切り換えた後の画面に対してジェスチャによる入力操作を行うことになる。   The number of screens displayed on the portable terminal is one, and the user can operate only on the one screen. For this reason, when the user wants to refer to another screen, the user switches the displayed screen and performs an input operation using a gesture on the screen after the switching.

かかる事情に鑑みてなされた本発明の目的は、複数の画面に対する操作性を向上することができる電子機器を提供することにある。   An object of the present invention made in view of such circumstances is to provide an electronic device capable of improving operability with respect to a plurality of screens.

一態様の電子機器は、
非接触検出センサと、
第1の画面及び第2の画面を表示するディスプレイと、
前記非接触検出センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備える。
前記コントローラは、
前記第1の画面の操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の操作を前記第2のジェスチャの操作に割り当てる。
One aspect of the electronic device is:
A non-contact detection sensor;
A display for displaying the first screen and the second screen;
A controller for determining a first gesture and a second gesture based on an output of the non-contact detection sensor;
Is provided.
The controller is
Assigning the operation of the first screen to the operation of the first gesture;
The operation on the second screen is assigned to the operation on the second gesture.

一態様の電子機器は、
非接触検出センサと、
第1の画面及び第2の画面を表示するディスプレイと、
前記非接触検出センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備える。
前記コントローラは、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の操作に割り当てる。
One aspect of the electronic device is:
A non-contact detection sensor;
A display for displaying the first screen and the second screen;
A controller for determining a first gesture and a second gesture based on an output of the non-contact detection sensor;
Is provided.
The controller is
Assigning the operation of the first gesture to the selection operation of the first screen or the second screen;
The operation of the second gesture is assigned to the operation of the selected first screen or the second screen.

一態様の制御方法は、
非接触検出センサを備える電子機器の制御方法であって、
第1の画面及び第2の画面をディスプレイに表示させ、
前記非接触検出センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断し、
前記第1の画面の操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の操作を前記第2のジェスチャの操作に割り当てる。
One aspect of the control method is:
A method for controlling an electronic device including a non-contact detection sensor,
Display the first screen and the second screen on the display;
Based on the output of the non-contact detection sensor, a first gesture and a second gesture are determined,
Assigning the operation of the first screen to the operation of the first gesture;
The operation on the second screen is assigned to the operation on the second gesture.

一態様の制御方法は、
非接触検出センサを備える電子機器の制御方法であって、
第1の画面及び第2の画面をディスプレイに表示させ、
前記非接触検出センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断し、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の操作に割り当てる。
One aspect of the control method is:
A method for controlling an electronic device including a non-contact detection sensor,
Display the first screen and the second screen on the display;
Based on the output of the non-contact detection sensor, a first gesture and a second gesture are determined,
Assigning the operation of the first gesture to the selection operation of the first screen or the second screen;
The operation of the second gesture is assigned to the operation of the selected first screen or the second screen.

本発明の一実施形態に係る電子機器によれば、複数の画面に対する操作性を向上することができる。   According to the electronic device according to an embodiment of the present invention, it is possible to improve the operability for a plurality of screens.

一実施形態に係る電子機器の概略構成図である。It is a schematic block diagram of the electronic device which concerns on one Embodiment. ジェスチャにより電子機器を操作する様子を示す第1の図である。It is a 1st figure which shows a mode that an electronic device is operated with gesture. (a)及び(b)は、ジェスチャにより第1の画面を操作する様子を示す図である。(A) And (b) is a figure which shows a mode that the 1st screen is operated by gesture. (a)及び(b)は、ジェスチャにより第2の画面を操作する様子を示す図である。(A) And (b) is a figure which shows a mode that a 2nd screen is operated with gesture. ジェスチャにより電子機器を操作する様子を示す第2の図である。It is a 2nd figure which shows a mode that an electronic device is operated with gesture. ジェスチャにより電子機器を操作する様子を示す第3の図である。It is a 3rd figure which shows a mode that an electronic device is operated with gesture. 一実施形態に係る電子機器が実行する第1の制御方法の例を示すフローチャートである。It is a flowchart which shows the example of the 1st control method which the electronic device which concerns on one Embodiment performs. 一実施形態に係る電子機器が実行する第2の制御方法の例を示すフローチャートである。It is a flowchart which shows the example of the 2nd control method which the electronic device which concerns on one Embodiment performs. 他の実施形態に係る電子機器の概略構成図である。It is a schematic block diagram of the electronic device which concerns on other embodiment.

図1に示すように一実施形態の電子機器1は、コントローラ11、カメラ12、ディスプレイ13、ストレージ14、通信ユニット15、近接センサ(ジェスチャセンサ)16、及び照度センサ17を含む。図1は例示であるため、電子機器1は図1に示す構成要素を全て含む必要はない。また、電子機器1は図1に示す以外の構成要素を含んでもよい。   As shown in FIG. 1, the electronic apparatus 1 according to an embodiment includes a controller 11, a camera 12, a display 13, a storage 14, a communication unit 15, a proximity sensor (gesture sensor) 16, and an illuminance sensor 17. Since FIG. 1 is an example, the electronic apparatus 1 does not have to include all the components shown in FIG. Moreover, the electronic device 1 may include components other than those shown in FIG.

コントローラ11は、例えばCPU(Central Processing Unit)等のプロセッサである。コントローラ11は、他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってもよい。コントローラ11は、複数の集積回路を組み合わせて構成されてもよい。コントローラ11は、電子機器1の動作を統括的に制御して各種の機能を実現する。   The controller 11 is a processor such as a CPU (Central Processing Unit). The controller 11 may be an integrated circuit such as an SoC (System-on-a-Chip) in which other components are integrated. The controller 11 may be configured by combining a plurality of integrated circuits. The controller 11 controls various operations of the electronic device 1 to realize various functions.

具体的にはコントローラ11は、ストレージ14に記憶されているデータを必要に応じて参照する。コントローラ11は、ストレージ14に記憶されているプログラムに含まれる命令を実行してディスプレイ13等の他の機能部を制御することによって各種機能を実現する。   Specifically, the controller 11 refers to the data stored in the storage 14 as necessary. The controller 11 implements various functions by executing instructions included in the program stored in the storage 14 and controlling other functional units such as the display 13.

カメラ12は、電子機器1の周囲の被写体を撮像する。一実施形態のカメラ12は一例として、電子機器1のディスプレイ13が設けられる面に設けられるインカメラである。カメラ12は、非接触検出センサの一例であり、撮像画像に対して行う画像解析の結果に基づいて、ユーザによるジェスチャを検出することができる。   The camera 12 images a subject around the electronic device 1. As an example, the camera 12 of the embodiment is an in-camera provided on the surface of the electronic device 1 on which the display 13 is provided. The camera 12 is an example of a non-contact detection sensor, and can detect a user's gesture based on the result of image analysis performed on a captured image.

ディスプレイ13は、液晶ディスプレイ(Liquid Crystal Display)、又は有機ELパネル(Organic Electro-Luminescence Panel)等を備える。ディスプレイ13は、無機ELパネル(Inorganic Electro-Luminescence Panel)等を備えてもよい。ディスプレイ13は複数の画面を表示可能である。ディスプレイ13は、文字、画像、記号又は図形等を表示可能である。ディスプレイ13は、タッチスクリーンを含んで、タッチスクリーンに対する指、又はスタイラスペン等の接触を検出してもよい。この場合ディスプレイ13は、複数の指、又はスタイラスペン等がタッチスクリーンに接触した位置を検出することができる。図1においてディスプレイ13は電子機器1に備えられるが、電子機器1の外部に設けられてもよい。   The display 13 includes a liquid crystal display, an organic EL panel (Organic Electro-Luminescence Panel), or the like. The display 13 may include an inorganic EL panel (Inorganic Electro-Luminescence Panel) or the like. The display 13 can display a plurality of screens. The display 13 can display characters, images, symbols or figures. The display 13 includes a touch screen, and may detect contact of a finger or a stylus pen with the touch screen. In this case, the display 13 can detect a position where a plurality of fingers, a stylus pen, or the like touches the touch screen. In FIG. 1, the display 13 is provided in the electronic device 1, but may be provided outside the electronic device 1.

ストレージ14は記憶部としてプログラム及びデータを記憶する。ストレージ14は、コントローラ11の処理結果を一時的に記憶する。例えばストレージ14は、ジェスチャの操作に、どのような画面の操作が割り当てられるかを記憶する。ストレージ14は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。ストレージ14は、複数の種類の記憶デバイスを含んでよい。ストレージ14は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。   The storage 14 stores programs and data as a storage unit. The storage 14 temporarily stores the processing result of the controller 11. For example, the storage 14 stores what screen operations are assigned to gesture operations. The storage 14 may include any storage device such as a semiconductor storage device and a magnetic storage device. The storage 14 may include a plurality of types of storage devices. The storage 14 may include a combination of a portable storage medium such as a memory card and a storage medium reading device.

ストレージ14に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとを含む。アプリケーションは、例えば、ジェスチャに応じた処理をコントローラ11に実行させる。制御プログラムは、例えば、OS(Operating System)である。アプリケーション及び制御プログラムは、通信ユニット15による無線通信又は記憶媒体を介してストレージ14にインストールされてもよい。   The programs stored in the storage 14 include an application executed in the foreground or the background and a control program that supports the operation of the application. For example, the application causes the controller 11 to execute processing according to the gesture. The control program is, for example, an OS (Operating System). The application and the control program may be installed in the storage 14 via wireless communication by the communication unit 15 or a storage medium.

通信ユニット15は、有線又は無線により通信するためのインタフェースである。一実施形態の通信ユニット15によって行われる通信方式は、無線通信規格である。例えば、無線通信規格として、2G、3G、4G等のセルラーフォンの通信規格がある。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、PHS(Personal Handy-phone System)等を含む。例えば、無線通信規格として、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE(Institute of Electrical and Electronics Engineers)802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット15は、上述した通信規格の1つ又は複数をサポートすることができる。   The communication unit 15 is an interface for communicating by wire or wireless. The communication method performed by the communication unit 15 of one embodiment is a wireless communication standard. For example, wireless communication standards include cellular phone communication standards such as 2G, 3G, and 4G. For example, the cellular phone communication standards include LTE (Long Term Evolution), W-CDMA (Wideband Code Division Multiple Access), CDMA2000, PDC (Personal Digital Cellular), GSM (registered trademark) (Global System for Mobile communications), PHS ( Personal Handy-phone System). For example, wireless communication standards include WiMAX (Worldwide Interoperability for Microwave Access), IEEE (Institute of Electrical and Electronics Engineers) 802.11, Bluetooth (registered trademark), IrDA (Infrared Data Association), NFC (Near Field Communication), and the like. is there. The communication unit 15 can support one or more of the communication standards described above.

近接センサ16は非接触検出センサの一例であり、電子機器1の周囲の対象物との相対距離、対象物の移動方向(ジェスチャー)等を非接触で検出する。一実施形態の近接センサ16は白、赤、緑及び青を感知する4つの可視光フォトダイオードを有し、対象物との相対距離を測定することができる。また近接センサ16は1つの光源用赤外LED(Light Emitting Diode)と上下左右を感知する4つの赤外フォトダイオードとを有する。近接センサ16は、光源用赤外LEDからの赤外光が照射された対象物からの反射光がそれぞれの赤外フォトダイオードに入射する時間差により対象物の移動方向を検出する。したがって、近接センサ16は、電子機器1のユーザが電子機器1に触れずに行うエアジェスチャ(以下、単にジェスチャと称する。)を検出することができる。   The proximity sensor 16 is an example of a non-contact detection sensor, and detects a relative distance from an object around the electronic device 1, a moving direction (gesture) of the object, and the like in a non-contact manner. The proximity sensor 16 of one embodiment has four visible light photodiodes that sense white, red, green and blue, and can measure the relative distance to the object. Further, the proximity sensor 16 has one light source infrared LED (Light Emitting Diode) and four infrared photodiodes for sensing up, down, left, and right. The proximity sensor 16 detects the moving direction of the object based on the time difference at which the reflected light from the object irradiated with the infrared light from the light source infrared LED enters each infrared photodiode. Therefore, the proximity sensor 16 can detect an air gesture (hereinafter simply referred to as a gesture) performed by the user of the electronic device 1 without touching the electronic device 1.

照度センサ17は非接触検出センサの一例であり、当該照度センサ17に入射する周囲光の照度を検出する。   The illuminance sensor 17 is an example of a non-contact detection sensor, and detects the illuminance of ambient light incident on the illuminance sensor 17.

図2は、ユーザがジェスチャにより電子機器1を操作する様子を示す図である。図2では一例として電子機器1はスタンドにより支持されるが、代替例として電子機器1は壁に立てかけられて支持されてもよい。電子機器1の上部にはカメラ12及び照度センサ17が設けられ、電子機器1の下部には近接センサ16が設けられる。図2に示す通り、ディスプレイ13は第1の画面(ウィンドウ)D1と第2の画面D2とを一部重畳して表示可能である。第1の画面D1及び第2の画面D2は、同一のアプリケーションに対応するものであってもよいし、異なるアプリケーションに対応するものであってもよい。一実施形態では説明の便宜のため、複数の画面を第1の画面と第2の画面として説明するが、複数の画面は3以上の画面であってもよい。   FIG. 2 is a diagram illustrating a state in which the user operates the electronic device 1 with a gesture. In FIG. 2, the electronic device 1 is supported by a stand as an example, but as an alternative, the electronic device 1 may be supported against a wall. A camera 12 and an illuminance sensor 17 are provided above the electronic device 1, and a proximity sensor 16 is provided below the electronic device 1. As shown in FIG. 2, the display 13 can display the first screen (window) D1 and the second screen D2 in a partially overlapping manner. The first screen D1 and the second screen D2 may correspond to the same application, or may correspond to different applications. In one embodiment, for convenience of explanation, a plurality of screens are described as a first screen and a second screen, but the plurality of screens may be three or more screens.

コントローラ11は、近接センサ16、照度センサ17又はカメラ12からの出力に基づいて、ユーザによりどのようなジェスチャが行われたかを判断することができる。一実施形態では一例として、非接触検出センサとして近接センサ16が用いられるものとして説明する。一実施形態においては、第1の画面D1と第2の画面D2とのいずれか一方が、入力操作を受け付け可能なアクティブな画面であるため、コントローラ11は、ジェスチャの操作を受け付けると、第1の画面D1と第2の画面D2のうち、アクティブな画面に対してジェスチャの操作を実行する。ジェスチャの操作とは例えば、ページ送り、ページ戻し、縦スクロール、横スクロール、ピンチイン、ピンチアウト等のうち任意のものである。   The controller 11 can determine what gesture has been performed by the user based on the output from the proximity sensor 16, the illuminance sensor 17, or the camera 12. In the embodiment, as an example, the proximity sensor 16 is described as a non-contact detection sensor. In one embodiment, since either one of the first screen D1 and the second screen D2 is an active screen that can accept an input operation, the controller 11 receives the gesture operation and receives the first operation. The gesture operation is executed on the active screen among the screen D1 and the second screen D2. The gesture operation is any one of page feed, page return, vertical scroll, horizontal scroll, pinch in, pinch out, and the like.

図2に示す電子機器1はスマートフォンである。代替例として電子機器1は例えば、携帯電話端末、ファブレット、タブレットPC又はフィーチャーフォン等でもよい。電子機器1は、前述のものに限定されず、例えば、PDA(Personal Digital Assistant)、リモコン端末、携帯音楽プレイヤー、ゲーム機、家電製品、産業用機器(FA(Factory Automation)機器)、などの任意の電子機器などに適用できる。さらに、電子機器1は、例えばデスクトップPC、銀行のATM(Automatic Teller Machine)、駅の券売機、デジタルカメラ、電子書籍リーダなど、ディスプレイ13を有する任意の機器に適用することができる。   The electronic device 1 shown in FIG. 2 is a smartphone. As an alternative example, the electronic device 1 may be, for example, a mobile phone terminal, a fablet, a tablet PC, or a feature phone. The electronic device 1 is not limited to the above-described ones, and may be any arbitrary device such as a PDA (Personal Digital Assistant), a remote control terminal, a portable music player, a game machine, a home appliance, an industrial device (FA (Factory Automation) device), etc. It can be applied to other electronic devices. Furthermore, the electronic device 1 can be applied to any device having the display 13 such as a desktop PC, a bank ATM (Automatic Teller Machine), a station ticket vending machine, a digital camera, an electronic book reader, and the like.

また、ディスプレイ13を備えた電子機器1は、自動車のステアリング、カーナビゲーション、及びダッシュボードに内装された車載コントロールパネルなど、その他、自動車に限らない各種の乗り物にも採用することができる。   In addition, the electronic device 1 including the display 13 can be used in various vehicles other than a vehicle, such as a vehicle steering, a car navigation, and an in-vehicle control panel built in a dashboard.

以下、一実施形態において電子機器1のコントローラ11が実行する処理を説明する。コントローラ11は、ユーザ操作に基づいて所定のモードが起動されたか否かを判定する。一実施形態の所定のモードは例えば、料理のレシピをディスプレイ13に表示するアプリケーション等が起動されているキッチンモードであるが、これに限られず電子機器1における任意のモードを含む。コントローラ11は、所定のモードが起動された状態で、例えば料理の複数のレシピをそれぞれ表示する複数の画面がディスプレイ13に表示されたことを検出すると次の処理を行う。すなわち、コントローラ11は複数の画面が表示されている間、第1の画面D1の操作を第1のジェスチャの操作に割り当て、第2の画面D2の操作を第2のジェスチャの操作に割り当てることができる(以下、第1の制御方法と称する。)。またコントローラ11は、第1の制御方法に代えて、第1のジェスチャの操作を第1の画面D1又は第2の画面D2の選択操作に割り当て、第2のジェスチャの操作を第1の画面D1又は第2の画面D2の操作に割り当てることができる(以下、第2の制御方法と称する。)。第1の制御方法と第2の制御方法との詳細は後述する。   Hereinafter, the process which the controller 11 of the electronic device 1 performs in one Embodiment is demonstrated. The controller 11 determines whether a predetermined mode is activated based on a user operation. The predetermined mode of the embodiment is, for example, a kitchen mode in which an application for displaying a cooking recipe on the display 13 is activated, but is not limited thereto, and includes an arbitrary mode in the electronic device 1. When the controller 11 detects that a plurality of screens, each displaying a plurality of recipes, for example, are displayed on the display 13 in a state where the predetermined mode is activated, the controller 11 performs the following processing. That is, the controller 11 can assign the operation of the first screen D1 to the operation of the first gesture and assign the operation of the second screen D2 to the operation of the second gesture while a plurality of screens are displayed. (Hereinafter referred to as the first control method). Further, instead of the first control method, the controller 11 assigns the operation of the first gesture to the selection operation of the first screen D1 or the second screen D2, and the operation of the second gesture is the first screen D1. Alternatively, it can be assigned to the operation of the second screen D2 (hereinafter referred to as a second control method). Details of the first control method and the second control method will be described later.

第1のジェスチャ及び第2のジェスチャは、左右のジェスチャ、上下のジェスチャ、斜めのジェスチャ、電子機器1と遠ざかる又は近づくジェスチャ、時計回りで円を描くジェスチャ、及び反時計回りで円を描くジェスチャ等の任意の組み合わせである。例えば左右のジェスチャとは、電子機器1の短手方向と略平行な方向に行われるジェスチャである。上下のジェスチャとは、電子機器1の長手方向と略平行な方向に行われるジェスチャである。斜めのジェスチャとは、電子機器1と略平行な平面において、電子機器1の長手方向と短手方向とのいずれとも平行でない方向に行われるジェスチャである。   The first gesture and the second gesture include left and right gestures, upper and lower gestures, oblique gestures, gestures that move away from or approach the electronic device 1, gestures that draw a circle in a clockwise direction, gestures that draw a circle in a counterclockwise direction, and the like Any combination of For example, the left and right gestures are gestures performed in a direction substantially parallel to the short direction of the electronic device 1. The upper and lower gestures are gestures performed in a direction substantially parallel to the longitudinal direction of the electronic device 1. The oblique gesture is a gesture performed in a direction that is not parallel to either the longitudinal direction or the short direction of the electronic device 1 on a plane substantially parallel to the electronic device 1.

以下、コントローラ11が実行する第1の制御方法と第2の制御方法とを詳細に説明する。コントローラ11は、例えばユーザ設定に基づいて、第1の制御方法と第2の制御方法とのいずれを実行するかを決定する。   Hereinafter, the first control method and the second control method executed by the controller 11 will be described in detail. The controller 11 determines which of the first control method and the second control method to execute based on, for example, user settings.

[第1の制御方法]
コントローラ11は、ディスプレイ13が第1の画面D1と第2の画面D2とを表示していると判定すると、第1の画面D1の操作を第1のジェスチャの操作に割り当て、第2の画面D2の操作を第2のジェスチャの操作に割り当てる。例えばコントローラ11は、第1の画面の縦スクロール操作を左右のジェスチャの操作に割り当て、第2の画面の縦スクロール操作を上下のジェスチャの操作に割り当てる。
[First control method]
When the controller 11 determines that the display 13 is displaying the first screen D1 and the second screen D2, the controller 11 assigns the operation of the first screen D1 to the operation of the first gesture, and the second screen D2. Is assigned to the operation of the second gesture. For example, the controller 11 assigns the vertical scroll operation of the first screen to the left and right gesture operations, and assigns the vertical scroll operation of the second screen to the upper and lower gesture operations.

図3(a)に示す状態でコントローラ11がユーザによる左右のジェスチャを検出したとき、コントローラ11は第1の画面D1を縦にスクロールする。この結果、ディスプレイ13は図3(b)に示す画面を表示する。   When the controller 11 detects left and right gestures by the user in the state shown in FIG. 3A, the controller 11 scrolls the first screen D1 vertically. As a result, the display 13 displays the screen shown in FIG.

図4(a)に示す状態でコントローラ11がユーザによる上下のジェスチャを検出したとき、コントローラ11は第2の画面D2を縦にスクロールする。この結果、ディスプレイ13は図4(b)に示す画面を表示する。   When the controller 11 detects a vertical gesture by the user in the state shown in FIG. 4A, the controller 11 scrolls the second screen D2 vertically. As a result, the display 13 displays the screen shown in FIG.

[第1の制御方法の他の実施形態]
コントローラ11は、ユーザの手等の検知対象物が通過した位置によって、アクティブな画面を切り換えることができる。
[Other Embodiments of First Control Method]
The controller 11 can switch the active screen depending on the position through which the detection target such as the user's hand has passed.

図5は、図2のA−A断面図である。コントローラ11は、電子機器1の上方空間における上部エリアR1と下部エリアR2との境界線を任意に設定可能である。図5に示す上部エリアR1とは、電子機器1を正面から視認したときの上半分の上方のエリアである。図5に示す下部エリアR2とは、電子機器1を正面から視認したときの下半分の上方のエリアである。電子機器1と上部エリアR1又は下部エリアR2との距離は例えば100[mm]である。コントローラ11は、近接センサ16を用いて、ユーザによるジェスチャが上部エリアR1と下部エリアR2とのいずれ(又はその他のエリア)で行われたかを判定する。   5 is a cross-sectional view taken along the line AA in FIG. The controller 11 can arbitrarily set a boundary line between the upper area R1 and the lower area R2 in the upper space of the electronic device 1. The upper area R1 shown in FIG. 5 is an area above the upper half when the electronic device 1 is viewed from the front. The lower area R2 shown in FIG. 5 is an area above the lower half when the electronic device 1 is viewed from the front. The distance between the electronic device 1 and the upper area R1 or the lower area R2 is, for example, 100 [mm]. The controller 11 uses the proximity sensor 16 to determine whether the user gesture is performed in the upper area R1 or the lower area R2 (or other area).

コントローラ11は、第1の画面の操作を、上部エリアR1で行われたジェスチャの操作に割り当て、第2の画面の操作を、下部エリアR2で行われたジェスチャの操作に割り当てる。   The controller 11 assigns the operation on the first screen to the operation of the gesture performed in the upper area R1, and assigns the operation on the second screen to the operation of the gesture performed in the lower area R2.

すなわち、ジェスチャが上部エリアR1で行われたと判定したとき、コントローラ11は、検出されたジェスチャに基づいて第1の画面の操作を実行する。例えばコントローラ11は、第1のジェスチャ(例えば上下のジェスチャ)が上部エリアR1で行われたと判定したとき、第1の画面において第1の操作(例えば縦スクロール)を実行してもよい。またコントローラ11は第2のジェスチャ(例えば左右のジェスチャ)が上部エリアR1で行われたと判定したとき、第1の画面において第2の操作(例えば横スクロール)を実行してもよい。   That is, when it is determined that the gesture has been performed in the upper area R1, the controller 11 performs an operation on the first screen based on the detected gesture. For example, when it is determined that the first gesture (for example, upper and lower gestures) is performed in the upper area R1, the controller 11 may execute the first operation (for example, vertical scroll) on the first screen. Further, when it is determined that the second gesture (for example, the left and right gesture) is performed in the upper area R1, the controller 11 may execute the second operation (for example, horizontal scroll) on the first screen.

他方、ジェスチャが下部エリアR2で行われたと判定したとき、コントローラ11は、検出されたジェスチャに基づいて第2の画面の操作を実行する。例えばコントローラ11は、第1のジェスチャ(例えば上下のジェスチャ)が下部エリアR2で行われたと判定したとき、第2の画面において第3の操作(例えばページ送り)を実行してもよい。またコントローラ11は第2のジェスチャ(例えば左右のジェスチャ)が下部エリアR2で行われたと判定したとき、第2の画面において第4の操作(例えばページ戻し)を実行してもよい。   On the other hand, when it is determined that the gesture has been performed in the lower area R2, the controller 11 performs an operation on the second screen based on the detected gesture. For example, when the controller 11 determines that the first gesture (for example, upper and lower gestures) has been performed in the lower area R2, the controller 11 may perform a third operation (for example, page feed) on the second screen. Further, when it is determined that the second gesture (for example, the left and right gestures) has been performed in the lower area R2, the controller 11 may execute a fourth operation (for example, page return) on the second screen.

ユーザによるジェスチャがいずれのエリアで行われたかをより正確に判定するための方法を次に示す。   A method for more accurately determining in which area the user's gesture is performed will be described below.

図6は、図2のA−A断面図である。図6に示す上部エリアR3と下部エリアR4は電子機器1の上方空間におけるエリアである。上部エリアR3と下部エリアR4との境界線は、照度センサ17を通って、電子機器1の短手方向に平行な平面上に存在する。ユーザの手が図6に示す上部エリアR3に存在するとき、照度センサ17の上方(図6に向かって上方)にはユーザの手又は手首が存在する。このときユーザの手又は手首により、照度センサ17への入射光が一部遮られるため、照度センサ17が出力する照度値は照度センサ17の上方にユーザの手又は手首がないときに比べて低くなる。一方ユーザの手が下部エリアR4に存在するとき、照度センサ17の上方にはユーザの手又は手首が存在しない。このとき照度センサ17への入射光はユーザの手又は手首によってほぼ遮られないため、照度センサ17が出力する照度値は照度センサ17の上方にユーザの手又は手首があるときに比べて高くなる。   6 is a cross-sectional view taken along the line AA in FIG. An upper area R <b> 3 and a lower area R <b> 4 shown in FIG. 6 are areas in the upper space of the electronic device 1. The boundary line between the upper area R3 and the lower area R4 passes through the illuminance sensor 17 and exists on a plane parallel to the short direction of the electronic device 1. When the user's hand is present in the upper area R3 shown in FIG. 6, the user's hand or wrist is present above the illuminance sensor 17 (upward in FIG. 6). At this time, since the incident light to the illuminance sensor 17 is partially blocked by the user's hand or wrist, the illuminance value output by the illuminance sensor 17 is lower than when the user's hand or wrist is not above the illuminance sensor 17. Become. On the other hand, when the user's hand is present in the lower area R4, the user's hand or wrist is not present above the illuminance sensor 17. At this time, since the incident light to the illuminance sensor 17 is not substantially blocked by the user's hand or wrist, the illuminance value output by the illuminance sensor 17 is higher than when the user's hand or wrist is above the illuminance sensor 17. .

そこでコントローラ11は、近接センサ16からの出力値を取得しつつ、照度センサ17からの出力値を取得してその変化の程度を判定することにより、ユーザによるジェスチャが上部エリアR3と下部エリアR4とのどちらで行われたかを判定してもよい。当該判定により、コントローラ11は例えば、第1の画面の操作を、上部エリアR3で行われたジェスチャの操作に割り当て、第2の画面の操作を、下部エリアR4で行われたジェスチャの操作に割り当てることができる。   Therefore, the controller 11 obtains the output value from the proximity sensor 16 and obtains the output value from the illuminance sensor 17 and determines the degree of the change, so that the user's gesture becomes the upper area R3 and the lower area R4. It may be determined which one was performed. Based on the determination, for example, the controller 11 assigns the first screen operation to the gesture operation performed in the upper area R3, and assigns the second screen operation to the gesture operation performed in the lower area R4. be able to.

以上説明したように、第1の制御方法では、コントローラ11は、第1の画面の操作を第1のジェスチャの操作に割り当て、第2の画面の操作を第2のジェスチャの操作に割り当てる。これによりユーザは、例えば料理中に、複数のレシピのそれぞれを異なる画面に表示させ、電子機器1に触れることなくそれぞれの画面に対して操作を実行することができる。したがって、複数の画面に対する操作性が向上する。   As described above, in the first control method, the controller 11 assigns the operation on the first screen to the operation of the first gesture, and assigns the operation on the second screen to the operation of the second gesture. Thereby, the user can display each of a plurality of recipes on different screens during cooking, for example, and can perform an operation on each screen without touching the electronic device 1. Therefore, the operability for a plurality of screens is improved.

[第2の制御方法]
次に第2の制御方法を説明する。コントローラ11は、第1のジェスチャの操作を第1の画面又は第2の画面の選択操作に割り当てる。またコントローラ11は、第2のジェスチャの操作を、選択された第1の画面又は第2の画面の操作に割り当てることができる。例えばコントローラ11は、第1の画面と第2の画面との両方において、横スクロールと縦スクロールのうち例えば縦スクロールのみ実行可能である場合、左右のジェスチャの操作を、第1の画面と第2の画面とのいずれをアクティブにするかの選択操作に割り当てる。コントローラ11は、上下のジェスチャの操作を、第1の画面又は第2の画面のうち選択されたアクティブな画面の縦スクロール操作に割り当てる。
[Second control method]
Next, the second control method will be described. The controller 11 assigns the operation of the first gesture to the selection operation of the first screen or the second screen. Further, the controller 11 can assign the operation of the second gesture to the operation of the selected first screen or second screen. For example, when the controller 11 can execute only horizontal scrolling, for example, horizontal scrolling or vertical scrolling on both the first screen and the second screen, the controller 11 performs the operation of the left and right gestures on the first screen and the second screen. Assign to the operation to select which screen to activate. The controller 11 assigns the operation of the upper and lower gestures to the vertical scroll operation of the active screen selected from the first screen or the second screen.

第2の制御方法では、コントローラ11は、第1のジェスチャの操作を、第1の画面又は第2の画面の選択操作に割り当て、第2のジェスチャの操作を、選択された第1の画面又は第2の画面の操作に割り当てる。これによりユーザは、電子機器1に触れることなく、操作したい所望の画面を選択し、当該画面に対して操作を実行することができる。したがって、複数の画面に対する操作性が向上する。   In the second control method, the controller 11 assigns the operation of the first gesture to the selection operation of the first screen or the second screen, and assigns the operation of the second gesture to the selected first screen or Assigned to the operation on the second screen. As a result, the user can select a desired screen to operate without touching the electronic device 1 and execute the operation on the screen. Therefore, the operability for a plurality of screens is improved.

図7は、一実施形態の電子機器1が任意の時点で定期的又は不定期的に実行する第1の制御方法の一例を示すフロー図である。任意の時点とは例えば、コントローラ11が、電子機器1において所定のモードが起動され複数の画面が表示されたことを検出したときである。   FIG. 7 is a flowchart illustrating an example of a first control method that the electronic apparatus 1 according to the embodiment executes regularly or irregularly at an arbitrary time point. For example, the arbitrary time point is when the controller 11 detects that a predetermined mode is activated in the electronic device 1 and a plurality of screens are displayed.

電子機器1は、第1の画面の操作を第1のジェスチャの操作に割り当て、第2の画面の操作を第2のジェスチャの操作に割り当てる(ステップS1)。第1のジェスチャは例えば左右のジェスチャ、電子機器1の上部エリアでのジェスチャ等である。第2のジェスチャは例えば上下のジェスチャ、電子機器1の下部エリアでのジェスチャ等である。電子機器1は、近接センサ16の出力値を取得する(ステップS2)。電子機器1は、当該出力値に基づいて、第1のジェスチャを検出したか否かを判定する(ステップS3)。電子機器1は、第1のジェスチャを検出すると(ステップS3のYes)、第1のジェスチャの操作に割り当てられた、第1の画面の操作を実行する(ステップS4)。   The electronic device 1 assigns the operation on the first screen to the operation of the first gesture, and assigns the operation on the second screen to the operation of the second gesture (step S1). The first gesture is, for example, a left / right gesture, a gesture in the upper area of the electronic device 1, or the like. The second gesture is, for example, an upper or lower gesture, a gesture in the lower area of the electronic device 1, or the like. The electronic device 1 acquires the output value of the proximity sensor 16 (step S2). The electronic device 1 determines whether or not the first gesture has been detected based on the output value (step S3). When the electronic device 1 detects the first gesture (Yes in Step S3), the electronic device 1 executes the operation on the first screen assigned to the operation of the first gesture (Step S4).

他方、電子機器1は、第1のジェスチャを検出しないと判定したとき(ステップS3のNo)、第2のジェスチャを検出したか否かを判定する(ステップS5)。電子機器1は第2のジェスチャを検出すると(ステップS5のYes)、第2のジェスチャの操作に割り当てられた第2の画面の操作を実行する(ステップS6)。   On the other hand, when it is determined that the first gesture is not detected (No in Step S3), the electronic device 1 determines whether or not the second gesture is detected (Step S5). When the electronic device 1 detects the second gesture (Yes in step S5), the electronic device 1 executes the operation on the second screen assigned to the operation of the second gesture (step S6).

図8は、一実施形態の電子機器1が任意の時点で定期的又は不定期的に実行する第2の制御方法の一例を示すフロー図である。   FIG. 8 is a flowchart illustrating an example of a second control method that the electronic apparatus 1 according to the embodiment executes regularly or irregularly at an arbitrary time point.

電子機器1は、第1のジェスチャの操作を第1の画面又は第2の画面の選択操作に割り当て、第2のジェスチャの操作を、選択された第1の画面又は第2の画面の操作に割り当てる(ステップS11)。第1のジェスチャとは例えば縦スクロール画面に対する左右のジェスチャである。第2のジェスチャとは例えば縦スクロール画面に対する上下のジェスチャである。電子機器1は近接センサ16の出力値を取得する(ステップS12)。電子機器1は当該出力値に基づいて、第1のジェスチャを検出したか否かを判定する(ステップS13)。電子機器1は、第1のジェスチャを検出すると(ステップS13のYes)、選択されたアクティブな画面を別の画面に切り換える(ステップS14)。   The electronic device 1 assigns the operation of the first gesture to the selection operation of the first screen or the second screen, and the operation of the second gesture is the operation of the selected first screen or the second screen. Assign (step S11). The first gesture is, for example, a left / right gesture for a vertical scroll screen. The second gesture is, for example, an up / down gesture for a vertical scroll screen. The electronic device 1 acquires the output value of the proximity sensor 16 (step S12). The electronic device 1 determines whether or not the first gesture has been detected based on the output value (step S13). When the electronic device 1 detects the first gesture (Yes in step S13), the electronic device 1 switches the selected active screen to another screen (step S14).

他方、電子機器1は、第1のジェスチャを検出しないと判定したとき(ステップS13のNo)、第2のジェスチャを検出したか否かを判定する(ステップS15)。電子機器1は、第2のジェスチャを検出すると(ステップS15のYes)、第1の画面及び第2の画面のうち選択されたアクティブな画面に対して、第2のジェスチャの操作に割り当てられた操作を実行する(ステップS16)。   On the other hand, when it is determined that the first gesture is not detected (No in Step S13), the electronic device 1 determines whether or not the second gesture is detected (Step S15). When the electronic device 1 detects the second gesture (Yes in step S15), the electronic device 1 is assigned to the operation of the second gesture with respect to the active screen selected from the first screen and the second screen. The operation is executed (step S16).

[他の実施形態]
上記実施形態では、近接センサ16は、電子機器1の下部に1つだけ設けられる。他の実施形態では図9に示すように、電子機器1は近接センサ16を電子機器1の上部に更に1つ備えてもよい。このときコントローラ11は、2つ目の画面(第2の画面)が表示されると電子機器1の2つの近接センサ16を駆動して、ディスプレイ13の上部に表示される第1の画面の操作を、電子機器1の上部の近接センサ16で検出されたジェスチャの操作に割り当ててもよい。またコントローラ11は、ディスプレイ13の下部に表示される第2の画面の操作を、電子機器1の下部の近接センサ16で検出されたジェスチャの操作に割り当ててもよい。代替例として、電子機器1の上部の近接センサ16に代えて、インカメラであるカメラ12又は照度センサ17をジェスチャの検出に用いてもよい。この場合、電子機器1の下部のみに近接センサ16が設けられるため、コントローラ11は、電子機器1を用いた通話時に近接センサ16が反応してディスプレイ13を消灯できるよう、当該近接センサ16の近接反応パラメータを調整する。
[Other Embodiments]
In the above embodiment, only one proximity sensor 16 is provided in the lower part of the electronic device 1. In another embodiment, as shown in FIG. 9, the electronic device 1 may further include one proximity sensor 16 on the electronic device 1. At this time, when the second screen (second screen) is displayed, the controller 11 drives the two proximity sensors 16 of the electronic device 1 to operate the first screen displayed on the upper portion of the display 13. May be assigned to the operation of the gesture detected by the proximity sensor 16 at the top of the electronic device 1. Further, the controller 11 may assign the operation on the second screen displayed on the lower part of the display 13 to the operation on the gesture detected by the proximity sensor 16 on the lower part of the electronic device 1. As an alternative example, the camera 12 or the illuminance sensor 17 that is an in-camera may be used for gesture detection instead of the proximity sensor 16 at the top of the electronic device 1. In this case, since the proximity sensor 16 is provided only in the lower part of the electronic device 1, the controller 11 can approach the proximity sensor 16 so that the proximity sensor 16 can react and turn off the display 13 during a call using the electronic device 1. Adjust reaction parameters.

上記第1の制御方法では、コントローラ11は第1の画面の操作を第1のジェスチャの操作に割り当て、第2の画面の操作を第2のジェスチャの操作に割り当てる。他の実施形態では一例としてディスプレイ13に3つの画面が一部重畳して表示される。このときコントローラ11は、第1の画面の操作を第1のジェスチャの操作に割り当て、第2の画面の操作を第2のジェスチャの操作に割り当て、第3の画面の操作を第3のジェスチャの操作に割り当ててもよい。代替例としてコントローラ11は、重畳する3つの画面のうち、前面から順に第1の画面、第2の画面、及び第3の画面と設定し、第1の画面の操作を第1のジェスチャの操作に割り当て、第2の画面の操作を第2のジェスチャの操作に割り当ててもよい。すなわち、コントローラ11は複数の画面に優先順位を設定して、優先順位が低く設定された画面にはジェスチャの操作を割り当てなくてもよい。   In the first control method, the controller 11 assigns the operation on the first screen to the operation of the first gesture, and assigns the operation on the second screen to the operation of the second gesture. In another embodiment, as an example, three screens are partially overlapped and displayed on the display 13. At this time, the controller 11 assigns the operation of the first screen to the operation of the first gesture, assigns the operation of the second screen to the operation of the second gesture, and assigns the operation of the third screen to the operation of the third gesture. It may be assigned to an operation. As an alternative example, the controller 11 sets the first screen, the second screen, and the third screen in order from the front among the three screens to be superimposed, and the operation of the first screen is the operation of the first gesture. And the operation on the second screen may be assigned to the operation on the second gesture. That is, the controller 11 sets priorities on a plurality of screens, and does not have to assign a gesture operation to a screen with a lower priority.

上記第2の制御方法では、コントローラ11は、第1の画面と第2の画面との両方において、横スクロールと縦スクロールのうち例えば縦スクロールのみ実行可能である場合、第1のジェスチャの操作を第1の画面又は第2の画面の選択操作に割り当てる。他の実施形態では一例として、ディスプレイ13に3つの画面が表示されるため、第1のジェスチャの操作は、第1の画面、第2の画面、及び第3の画面の選択操作に割り当てられる。ディスプレイ13に画面が4つ以上表示される場合も同様である。   In the second control method, the controller 11 performs the operation of the first gesture when, for example, only the vertical scroll can be executed out of the horizontal scroll and the vertical scroll on both the first screen and the second screen. It assigns to selection operation of the 1st screen or the 2nd screen. In another embodiment, as an example, since three screens are displayed on the display 13, the operation of the first gesture is assigned to the selection operation of the first screen, the second screen, and the third screen. The same applies when four or more screens are displayed on the display 13.

上記第2の制御方法では、コントローラ11は、第1の画面と第2の画面との両方において、横スクロールと縦スクロールのうち例えば縦スクロールのみ実行可能である場合、第1のジェスチャの操作を第1の画面又は第2の画面の選択操作に割り当てる。他の実施形態では、第1の画面と第2の画面との両方において、横スクロールと縦スクロールのうち横スクロールのみ実行可能である。このときコントローラ11は、上下のジェスチャの操作を、第1の画面と第2の画面とのいずれをアクティブにするかの選択操作に割り当て、左右のジェスチャの操作を、第1の画面又は第2の画面のうちアクティブな画面の横スクロール操作に割り当てる。   In the second control method, the controller 11 performs the operation of the first gesture when, for example, only the vertical scroll can be executed out of the horizontal scroll and the vertical scroll on both the first screen and the second screen. It assigns to selection operation of the 1st screen or the 2nd screen. In another embodiment, only horizontal scrolling can be executed among horizontal scrolling and vertical scrolling on both the first screen and the second screen. At this time, the controller 11 assigns the operation of the upper and lower gestures to a selection operation for activating which of the first screen and the second screen, and the operation of the left and right gestures is performed on the first screen or the second screen. Assigned to the horizontal scroll operation of the active screen.

上記実施形態では、電子機器1の下部に近接センサ16が設けられ、電子機器1の上部に照度センサ17が設けられる。他の実施形態では、電子機器1の下部に近接センサ16と照度センサ17とが設けられてもよい。   In the above embodiment, the proximity sensor 16 is provided in the lower part of the electronic device 1, and the illuminance sensor 17 is provided in the upper part of the electronic device 1. In another embodiment, the proximity sensor 16 and the illuminance sensor 17 may be provided below the electronic device 1.

本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、例えば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID(Radio Frequency IDentification)受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機またはその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作は、プログラム命令(ソフトウェア)で実装された専用回路(例えば、特定機能を実行するために相互接続された個別の論理ゲート)や、一以上のプロセッサにより実行される論理ブロックやプログラムモジュール等により実行されることに留意されたい。論理ブロックやプログラムモジュール等を実行する一以上のプロセッサには、例えば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置及び/またはこれらいずれかの組合せが含まれる。ここに示す実施形態は、例えば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコードまたはコードセグメントであってもよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラスまたは命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってもよい。コードセグメントは、他のコードセグメントまたはハードウェア回路と、情報、データ引数、変数または記憶内容の送信及び/または受信を行い、これにより、コードセグメントが他のコードセグメントまたはハードウェア回路と接続される。   Many aspects of the present disclosure are presented as a series of operations performed by a computer system or other hardware capable of executing program instructions. The computer system and other hardware include, for example, a general-purpose computer, a PC (personal computer), a dedicated computer, a workstation, a PCS (Personal Communications System), a mobile (cellular) telephone, and a data processing function. Mobile telephones, RFID (Radio Frequency IDentification) receivers, game consoles, electronic notepads, laptop computers, GPS (Global Positioning System) receivers or other programmable data processing devices are included. In each embodiment, various operations are performed by dedicated circuitry (eg, individual logic gates interconnected to perform a specific function) implemented by program instructions (software), or by one or more processors. Note that it is executed by a logic block, a program module, or the like. The one or more processors that execute logic blocks, program modules, and the like include, for example, one or more microprocessors, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), a DSP (Digital Signal Processor), a PLD (Programmable). Includes Logic Devices), FPGAs (Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, electronics, other devices designed to perform the functions described herein, and / or any combination thereof It is. The embodiments shown here are implemented by, for example, hardware, software, firmware, middleware, microcode, or any combination thereof. The instructions may be program code or code segments for performing the necessary tasks. The instructions can then be stored on a machine-readable non-transitory storage medium or other medium. A code segment may represent any combination of procedures, functions, subprograms, programs, routines, subroutines, modules, software packages, classes or instructions, data structures or program statements. A code segment transmits and / or receives information, data arguments, variables or stored contents with other code segments or hardware circuits, thereby connecting the code segments with other code segments or hardware circuits .

ここで用いられるストレージは、さらに、ソリッドステートメモリ、磁気ディスク及び光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができ、かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュール等のコンピュータ命令の適宜なセットや、データ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気及び光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスク及びブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)もしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体またはこれらいずれかの組合せが含まれる。メモリは、プロセッサ/プロセッシングユニットの内部及び/または外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性その他のメモリを意味し、特定の種類やメモリの数または記憶が格納される媒体の種類は限定されない。   The storage used herein can be further configured as a computer readable tangible carrier (medium) comprised of solid state memory, magnetic disks and optical disks, such media being disclosed herein. An appropriate set of computer instructions, such as program modules, that cause the processor to execute the technique, and data structures are stored. Computer readable media include electrical connections with one or more wires, magnetic disk storage media, magnetic cassettes, magnetic tapes, and other magnetic and optical storage devices (eg CD (Compact Disk), laser disks ( (Registered trademark), DVD (registered trademark) (Digital Versatile Disc), floppy (registered trademark) disk and Blu-ray Disc (registered trademark)), portable computer disk, RAM (Random Access Memory), ROM (Read-Only Memory), EPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), flash memory, rewritable and programmable ROM, other tangible storage media capable of storing information, or any combination thereof Is included. The memory can be provided inside and / or outside the processor / processing unit. As used herein, the term “memory” means any type of long-term storage, short-term storage, volatile, non-volatile, or other memory in which a particular type or number of memories or storage is stored. The type of medium is not limited.

1 電子機器
11 コントローラ
12 カメラ
13 ディスプレイ
14 ストレージ
15 通信ユニット
16 近接センサ
17 照度センサ
DESCRIPTION OF SYMBOLS 1 Electronic device 11 Controller 12 Camera 13 Display 14 Storage 15 Communication unit 16 Proximity sensor 17 Illuminance sensor

Claims (4)

自機器に触れないジェスチャを検出するセンサと、
第1の画面及び第2の画面を表示するディスプレイと、
記センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備え、
前記コントローラは、
前記第1の画面の前記第1のジェスチャの方向への操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の前記第1のジェスチャの方向への操作を前記第2のジェスチャの操作に割り当てる、
電子機器。
A sensor for detecting a gesture that does not touch the own device,
A display for displaying the first screen and the second screen;
Based on the output of the previous xenon capacitors, and a controller for determining the first gesture and the second gesture,
With
The controller is
Assigning an operation in the direction of the first gesture on the first screen to the operation of the first gesture;
Assigning an operation in the direction of the first gesture on the second screen to the operation of the second gesture;
Electronics.
自機器に触れないジェスチャを検出するセンサと、
第1の画面及び第2の画面を表示するディスプレイと、
記センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備え、
前記コントローラは、
前記第1の画面および前記第2の画面が、前記第2のジェスチャの方向へのみ操作可能な場合に、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の前記第2のジェスチャの方向への操作に割り当てる、
電子機器。
A sensor for detecting a gesture that does not touch the own device,
A display for displaying the first screen and the second screen;
Based on the output of the previous xenon capacitors, and a controller for determining the first gesture and the second gesture,
With
The controller is
When the first screen and the second screen can be operated only in the direction of the second gesture,
Assigning the operation of the first gesture to the selection operation of the first screen or the second screen;
Assigning the operation of the second gesture to the operation of the selected first screen or the second screen in the direction of the second gesture ;
Electronics.
自機器に触れないジェスチャを検出するセンサを備える電子機器の制御方法であって、
第1の画面及び第2の画面をディスプレイに表示させ、
記センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断し、
前記第1の画面の前記第1のジェスチャの方向への操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の前記第1のジェスチャの方向への操作を前記第2のジェスチャの操作に割り当てる、
制御方法。
A control method for an electronic device including a sensor for detecting a gesture that does not touch the own device,
Display the first screen and the second screen on the display;
Based on the output of the previous xenon capacitors determines the first gesture and the second gesture,
Assigning an operation in the direction of the first gesture on the first screen to the operation of the first gesture;
Assigning an operation in the direction of the first gesture on the second screen to the operation of the second gesture;
Control method.
自機器に触れないジェスチャを検出するセンサを備える電子機器の制御方法であって、
第1の画面及び第2の画面をディスプレイに表示させ、
記センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断し、
前記第1の画面および前記第2の画面が、前記第2のジェスチャの方向へのみ操作可能な場合に、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の前記第2のジェスチャの方向への操作に割り当てる、
制御方法。

A control method for an electronic device including a sensor for detecting a gesture that does not touch the own device,
Display the first screen and the second screen on the display;
Based on the output of the previous xenon capacitors determines the first gesture and the second gesture,
When the first screen and the second screen can be operated only in the direction of the second gesture,
Assigning the operation of the first gesture to the selection operation of the first screen or the second screen;
Assigning the operation of the second gesture to the operation of the selected first screen or the second screen in the direction of the second gesture ;
Control method.

JP2018103989A 2018-05-30 2018-05-30 Electronic device and control method Active JP6387204B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018103989A JP6387204B2 (en) 2018-05-30 2018-05-30 Electronic device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018103989A JP6387204B2 (en) 2018-05-30 2018-05-30 Electronic device and control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017124705A Division JP6387154B2 (en) 2017-06-27 2017-06-27 Electronic device and control method

Publications (2)

Publication Number Publication Date
JP6387204B2 true JP6387204B2 (en) 2018-09-05
JP2018139148A JP2018139148A (en) 2018-09-06

Family

ID=63444282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018103989A Active JP6387204B2 (en) 2018-05-30 2018-05-30 Electronic device and control method

Country Status (1)

Country Link
JP (1) JP6387204B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110310005A1 (en) * 2010-06-17 2011-12-22 Qualcomm Incorporated Methods and apparatus for contactless gesture recognition
WO2013105443A1 (en) * 2012-01-13 2013-07-18 ソニー株式会社 Information processing device and information processing method, as well as computer program
KR101984683B1 (en) * 2012-10-10 2019-05-31 삼성전자주식회사 Multi display device and method for controlling thereof
JP2015087824A (en) * 2013-10-28 2015-05-07 オムロン株式会社 Screen operation device and screen operation method
CN105653163A (en) * 2014-11-14 2016-06-08 富泰华工业(深圳)有限公司 Character input system and method for portable electronic device
JP5932082B2 (en) * 2015-03-04 2016-06-08 株式会社東芝 Recognition device

Also Published As

Publication number Publication date
JP2018139148A (en) 2018-09-06

Similar Documents

Publication Publication Date Title
JP6282696B2 (en) Electronic device and control method
JP6239796B1 (en) Electronics
US9116595B2 (en) Device, method, and storage medium storing program
US10712828B2 (en) Electronic device, recording medium, and control method
JP6360112B2 (en) Electronics
WO2018092659A1 (en) Electronic apparatus, program, and control method
JP6387154B2 (en) Electronic device and control method
JP6169298B1 (en) Electronic device and control method
US20180299989A1 (en) Electronic device, recording medium, and control method
JP6186488B1 (en) Electronic device, control method and program
JP2019144955A (en) Electronic device, control method and program
JP6387204B2 (en) Electronic device and control method
WO2019163503A1 (en) Electronic device, control method, and program
JP6401843B2 (en) Electronic device, control method and program
EP3674656A1 (en) Electronic apparatus, program, and control method
JP6276340B2 (en) Electronic device, control method and program
JP6374477B2 (en) Electronic device, control method and program
JP2019145094A (en) Electronic device, control method, and program
US20180188817A1 (en) Electronic device, computer-readable non-transitory recording medium, and control method
JP6173625B1 (en) Electronic device, program, and control method
JP2020177428A (en) Electronic apparatus, method for control, and program
JP2019145068A (en) Electronic device, control method, and program
JP2019144954A (en) Electronic device, control method, and program
JP2018109955A (en) Electronic device, program and control method
JP2018109873A (en) Electronic device, program and control method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180530

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180530

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180530

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180810

R150 Certificate of patent or registration of utility model

Ref document number: 6387204

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150