JP6387204B2 - Electronic device and control method - Google Patents
Electronic device and control method Download PDFInfo
- Publication number
- JP6387204B2 JP6387204B2 JP2018103989A JP2018103989A JP6387204B2 JP 6387204 B2 JP6387204 B2 JP 6387204B2 JP 2018103989 A JP2018103989 A JP 2018103989A JP 2018103989 A JP2018103989 A JP 2018103989A JP 6387204 B2 JP6387204 B2 JP 6387204B2
- Authority
- JP
- Japan
- Prior art keywords
- screen
- gesture
- electronic device
- controller
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Telephone Function (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は電子機器及び制御方法に関する。 The present invention relates to an electronic device and a control method.
従来、ユーザが端末から離れて行うジェスチャを赤外線センサにより認識し、表示される画面に対して、ジェスチャと対応する入力操作を実行する携帯端末が知られている(例えば特許文献1)。 2. Description of the Related Art Conventionally, a portable terminal that recognizes a gesture performed by a user away from a terminal using an infrared sensor and performs an input operation corresponding to the gesture on a displayed screen is known (for example, Patent Document 1).
上記携帯端末に表示される画面の数は1つであり、ユーザは、当該1つの画面に対してのみ操作を行うことができる。そのため、ユーザが他の画面を参照したい場合、ユーザは表示されている画面を切り換えて、切り換えた後の画面に対してジェスチャによる入力操作を行うことになる。 The number of screens displayed on the portable terminal is one, and the user can operate only on the one screen. For this reason, when the user wants to refer to another screen, the user switches the displayed screen and performs an input operation using a gesture on the screen after the switching.
かかる事情に鑑みてなされた本発明の目的は、複数の画面に対する操作性を向上することができる電子機器を提供することにある。 An object of the present invention made in view of such circumstances is to provide an electronic device capable of improving operability with respect to a plurality of screens.
一態様の電子機器は、
非接触検出センサと、
第1の画面及び第2の画面を表示するディスプレイと、
前記非接触検出センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備える。
前記コントローラは、
前記第1の画面の操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の操作を前記第2のジェスチャの操作に割り当てる。
One aspect of the electronic device is:
A non-contact detection sensor;
A display for displaying the first screen and the second screen;
A controller for determining a first gesture and a second gesture based on an output of the non-contact detection sensor;
Is provided.
The controller is
Assigning the operation of the first screen to the operation of the first gesture;
The operation on the second screen is assigned to the operation on the second gesture.
一態様の電子機器は、
非接触検出センサと、
第1の画面及び第2の画面を表示するディスプレイと、
前記非接触検出センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備える。
前記コントローラは、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の操作に割り当てる。
One aspect of the electronic device is:
A non-contact detection sensor;
A display for displaying the first screen and the second screen;
A controller for determining a first gesture and a second gesture based on an output of the non-contact detection sensor;
Is provided.
The controller is
Assigning the operation of the first gesture to the selection operation of the first screen or the second screen;
The operation of the second gesture is assigned to the operation of the selected first screen or the second screen.
一態様の制御方法は、
非接触検出センサを備える電子機器の制御方法であって、
第1の画面及び第2の画面をディスプレイに表示させ、
前記非接触検出センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断し、
前記第1の画面の操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の操作を前記第2のジェスチャの操作に割り当てる。
One aspect of the control method is:
A method for controlling an electronic device including a non-contact detection sensor,
Display the first screen and the second screen on the display;
Based on the output of the non-contact detection sensor, a first gesture and a second gesture are determined,
Assigning the operation of the first screen to the operation of the first gesture;
The operation on the second screen is assigned to the operation on the second gesture.
一態様の制御方法は、
非接触検出センサを備える電子機器の制御方法であって、
第1の画面及び第2の画面をディスプレイに表示させ、
前記非接触検出センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断し、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の操作に割り当てる。
One aspect of the control method is:
A method for controlling an electronic device including a non-contact detection sensor,
Display the first screen and the second screen on the display;
Based on the output of the non-contact detection sensor, a first gesture and a second gesture are determined,
Assigning the operation of the first gesture to the selection operation of the first screen or the second screen;
The operation of the second gesture is assigned to the operation of the selected first screen or the second screen.
本発明の一実施形態に係る電子機器によれば、複数の画面に対する操作性を向上することができる。 According to the electronic device according to an embodiment of the present invention, it is possible to improve the operability for a plurality of screens.
図1に示すように一実施形態の電子機器1は、コントローラ11、カメラ12、ディスプレイ13、ストレージ14、通信ユニット15、近接センサ(ジェスチャセンサ)16、及び照度センサ17を含む。図1は例示であるため、電子機器1は図1に示す構成要素を全て含む必要はない。また、電子機器1は図1に示す以外の構成要素を含んでもよい。
As shown in FIG. 1, the electronic apparatus 1 according to an embodiment includes a controller 11, a
コントローラ11は、例えばCPU(Central Processing Unit)等のプロセッサである。コントローラ11は、他の構成要素が統合されたSoC(System-on-a-Chip)等の集積回路であってもよい。コントローラ11は、複数の集積回路を組み合わせて構成されてもよい。コントローラ11は、電子機器1の動作を統括的に制御して各種の機能を実現する。 The controller 11 is a processor such as a CPU (Central Processing Unit). The controller 11 may be an integrated circuit such as an SoC (System-on-a-Chip) in which other components are integrated. The controller 11 may be configured by combining a plurality of integrated circuits. The controller 11 controls various operations of the electronic device 1 to realize various functions.
具体的にはコントローラ11は、ストレージ14に記憶されているデータを必要に応じて参照する。コントローラ11は、ストレージ14に記憶されているプログラムに含まれる命令を実行してディスプレイ13等の他の機能部を制御することによって各種機能を実現する。
Specifically, the controller 11 refers to the data stored in the
カメラ12は、電子機器1の周囲の被写体を撮像する。一実施形態のカメラ12は一例として、電子機器1のディスプレイ13が設けられる面に設けられるインカメラである。カメラ12は、非接触検出センサの一例であり、撮像画像に対して行う画像解析の結果に基づいて、ユーザによるジェスチャを検出することができる。
The
ディスプレイ13は、液晶ディスプレイ(Liquid Crystal Display)、又は有機ELパネル(Organic Electro-Luminescence Panel)等を備える。ディスプレイ13は、無機ELパネル(Inorganic Electro-Luminescence Panel)等を備えてもよい。ディスプレイ13は複数の画面を表示可能である。ディスプレイ13は、文字、画像、記号又は図形等を表示可能である。ディスプレイ13は、タッチスクリーンを含んで、タッチスクリーンに対する指、又はスタイラスペン等の接触を検出してもよい。この場合ディスプレイ13は、複数の指、又はスタイラスペン等がタッチスクリーンに接触した位置を検出することができる。図1においてディスプレイ13は電子機器1に備えられるが、電子機器1の外部に設けられてもよい。
The
ストレージ14は記憶部としてプログラム及びデータを記憶する。ストレージ14は、コントローラ11の処理結果を一時的に記憶する。例えばストレージ14は、ジェスチャの操作に、どのような画面の操作が割り当てられるかを記憶する。ストレージ14は、半導体記憶デバイス、及び磁気記憶デバイス等の任意の記憶デバイスを含んでよい。ストレージ14は、複数の種類の記憶デバイスを含んでよい。ストレージ14は、メモリカード等の可搬の記憶媒体と、記憶媒体の読み取り装置との組み合わせを含んでよい。
The
ストレージ14に記憶されるプログラムには、フォアグランド又はバックグランドで実行されるアプリケーションと、アプリケーションの動作を支援する制御プログラムとを含む。アプリケーションは、例えば、ジェスチャに応じた処理をコントローラ11に実行させる。制御プログラムは、例えば、OS(Operating System)である。アプリケーション及び制御プログラムは、通信ユニット15による無線通信又は記憶媒体を介してストレージ14にインストールされてもよい。
The programs stored in the
通信ユニット15は、有線又は無線により通信するためのインタフェースである。一実施形態の通信ユニット15によって行われる通信方式は、無線通信規格である。例えば、無線通信規格として、2G、3G、4G等のセルラーフォンの通信規格がある。例えばセルラーフォンの通信規格は、LTE(Long Term Evolution)、W−CDMA(Wideband Code Division Multiple Access)、CDMA2000、PDC(Personal Digital Cellular)、GSM(登録商標)(Global System for Mobile communications)、PHS(Personal Handy-phone System)等を含む。例えば、無線通信規格として、WiMAX(Worldwide Interoperability for Microwave Access)、IEEE(Institute of Electrical and Electronics Engineers)802.11、Bluetooth(登録商標)、IrDA(Infrared Data Association)、NFC(Near Field Communication)等がある。通信ユニット15は、上述した通信規格の1つ又は複数をサポートすることができる。
The
近接センサ16は非接触検出センサの一例であり、電子機器1の周囲の対象物との相対距離、対象物の移動方向(ジェスチャー)等を非接触で検出する。一実施形態の近接センサ16は白、赤、緑及び青を感知する4つの可視光フォトダイオードを有し、対象物との相対距離を測定することができる。また近接センサ16は1つの光源用赤外LED(Light Emitting Diode)と上下左右を感知する4つの赤外フォトダイオードとを有する。近接センサ16は、光源用赤外LEDからの赤外光が照射された対象物からの反射光がそれぞれの赤外フォトダイオードに入射する時間差により対象物の移動方向を検出する。したがって、近接センサ16は、電子機器1のユーザが電子機器1に触れずに行うエアジェスチャ(以下、単にジェスチャと称する。)を検出することができる。
The
照度センサ17は非接触検出センサの一例であり、当該照度センサ17に入射する周囲光の照度を検出する。
The
図2は、ユーザがジェスチャにより電子機器1を操作する様子を示す図である。図2では一例として電子機器1はスタンドにより支持されるが、代替例として電子機器1は壁に立てかけられて支持されてもよい。電子機器1の上部にはカメラ12及び照度センサ17が設けられ、電子機器1の下部には近接センサ16が設けられる。図2に示す通り、ディスプレイ13は第1の画面(ウィンドウ)D1と第2の画面D2とを一部重畳して表示可能である。第1の画面D1及び第2の画面D2は、同一のアプリケーションに対応するものであってもよいし、異なるアプリケーションに対応するものであってもよい。一実施形態では説明の便宜のため、複数の画面を第1の画面と第2の画面として説明するが、複数の画面は3以上の画面であってもよい。
FIG. 2 is a diagram illustrating a state in which the user operates the electronic device 1 with a gesture. In FIG. 2, the electronic device 1 is supported by a stand as an example, but as an alternative, the electronic device 1 may be supported against a wall. A
コントローラ11は、近接センサ16、照度センサ17又はカメラ12からの出力に基づいて、ユーザによりどのようなジェスチャが行われたかを判断することができる。一実施形態では一例として、非接触検出センサとして近接センサ16が用いられるものとして説明する。一実施形態においては、第1の画面D1と第2の画面D2とのいずれか一方が、入力操作を受け付け可能なアクティブな画面であるため、コントローラ11は、ジェスチャの操作を受け付けると、第1の画面D1と第2の画面D2のうち、アクティブな画面に対してジェスチャの操作を実行する。ジェスチャの操作とは例えば、ページ送り、ページ戻し、縦スクロール、横スクロール、ピンチイン、ピンチアウト等のうち任意のものである。
The controller 11 can determine what gesture has been performed by the user based on the output from the
図2に示す電子機器1はスマートフォンである。代替例として電子機器1は例えば、携帯電話端末、ファブレット、タブレットPC又はフィーチャーフォン等でもよい。電子機器1は、前述のものに限定されず、例えば、PDA(Personal Digital Assistant)、リモコン端末、携帯音楽プレイヤー、ゲーム機、家電製品、産業用機器(FA(Factory Automation)機器)、などの任意の電子機器などに適用できる。さらに、電子機器1は、例えばデスクトップPC、銀行のATM(Automatic Teller Machine)、駅の券売機、デジタルカメラ、電子書籍リーダなど、ディスプレイ13を有する任意の機器に適用することができる。
The electronic device 1 shown in FIG. 2 is a smartphone. As an alternative example, the electronic device 1 may be, for example, a mobile phone terminal, a fablet, a tablet PC, or a feature phone. The electronic device 1 is not limited to the above-described ones, and may be any arbitrary device such as a PDA (Personal Digital Assistant), a remote control terminal, a portable music player, a game machine, a home appliance, an industrial device (FA (Factory Automation) device), etc. It can be applied to other electronic devices. Furthermore, the electronic device 1 can be applied to any device having the
また、ディスプレイ13を備えた電子機器1は、自動車のステアリング、カーナビゲーション、及びダッシュボードに内装された車載コントロールパネルなど、その他、自動車に限らない各種の乗り物にも採用することができる。
In addition, the electronic device 1 including the
以下、一実施形態において電子機器1のコントローラ11が実行する処理を説明する。コントローラ11は、ユーザ操作に基づいて所定のモードが起動されたか否かを判定する。一実施形態の所定のモードは例えば、料理のレシピをディスプレイ13に表示するアプリケーション等が起動されているキッチンモードであるが、これに限られず電子機器1における任意のモードを含む。コントローラ11は、所定のモードが起動された状態で、例えば料理の複数のレシピをそれぞれ表示する複数の画面がディスプレイ13に表示されたことを検出すると次の処理を行う。すなわち、コントローラ11は複数の画面が表示されている間、第1の画面D1の操作を第1のジェスチャの操作に割り当て、第2の画面D2の操作を第2のジェスチャの操作に割り当てることができる(以下、第1の制御方法と称する。)。またコントローラ11は、第1の制御方法に代えて、第1のジェスチャの操作を第1の画面D1又は第2の画面D2の選択操作に割り当て、第2のジェスチャの操作を第1の画面D1又は第2の画面D2の操作に割り当てることができる(以下、第2の制御方法と称する。)。第1の制御方法と第2の制御方法との詳細は後述する。
Hereinafter, the process which the controller 11 of the electronic device 1 performs in one Embodiment is demonstrated. The controller 11 determines whether a predetermined mode is activated based on a user operation. The predetermined mode of the embodiment is, for example, a kitchen mode in which an application for displaying a cooking recipe on the
第1のジェスチャ及び第2のジェスチャは、左右のジェスチャ、上下のジェスチャ、斜めのジェスチャ、電子機器1と遠ざかる又は近づくジェスチャ、時計回りで円を描くジェスチャ、及び反時計回りで円を描くジェスチャ等の任意の組み合わせである。例えば左右のジェスチャとは、電子機器1の短手方向と略平行な方向に行われるジェスチャである。上下のジェスチャとは、電子機器1の長手方向と略平行な方向に行われるジェスチャである。斜めのジェスチャとは、電子機器1と略平行な平面において、電子機器1の長手方向と短手方向とのいずれとも平行でない方向に行われるジェスチャである。 The first gesture and the second gesture include left and right gestures, upper and lower gestures, oblique gestures, gestures that move away from or approach the electronic device 1, gestures that draw a circle in a clockwise direction, gestures that draw a circle in a counterclockwise direction, and the like Any combination of For example, the left and right gestures are gestures performed in a direction substantially parallel to the short direction of the electronic device 1. The upper and lower gestures are gestures performed in a direction substantially parallel to the longitudinal direction of the electronic device 1. The oblique gesture is a gesture performed in a direction that is not parallel to either the longitudinal direction or the short direction of the electronic device 1 on a plane substantially parallel to the electronic device 1.
以下、コントローラ11が実行する第1の制御方法と第2の制御方法とを詳細に説明する。コントローラ11は、例えばユーザ設定に基づいて、第1の制御方法と第2の制御方法とのいずれを実行するかを決定する。 Hereinafter, the first control method and the second control method executed by the controller 11 will be described in detail. The controller 11 determines which of the first control method and the second control method to execute based on, for example, user settings.
[第1の制御方法]
コントローラ11は、ディスプレイ13が第1の画面D1と第2の画面D2とを表示していると判定すると、第1の画面D1の操作を第1のジェスチャの操作に割り当て、第2の画面D2の操作を第2のジェスチャの操作に割り当てる。例えばコントローラ11は、第1の画面の縦スクロール操作を左右のジェスチャの操作に割り当て、第2の画面の縦スクロール操作を上下のジェスチャの操作に割り当てる。
[First control method]
When the controller 11 determines that the
図3(a)に示す状態でコントローラ11がユーザによる左右のジェスチャを検出したとき、コントローラ11は第1の画面D1を縦にスクロールする。この結果、ディスプレイ13は図3(b)に示す画面を表示する。
When the controller 11 detects left and right gestures by the user in the state shown in FIG. 3A, the controller 11 scrolls the first screen D1 vertically. As a result, the
図4(a)に示す状態でコントローラ11がユーザによる上下のジェスチャを検出したとき、コントローラ11は第2の画面D2を縦にスクロールする。この結果、ディスプレイ13は図4(b)に示す画面を表示する。
When the controller 11 detects a vertical gesture by the user in the state shown in FIG. 4A, the controller 11 scrolls the second screen D2 vertically. As a result, the
[第1の制御方法の他の実施形態]
コントローラ11は、ユーザの手等の検知対象物が通過した位置によって、アクティブな画面を切り換えることができる。
[Other Embodiments of First Control Method]
The controller 11 can switch the active screen depending on the position through which the detection target such as the user's hand has passed.
図5は、図2のA−A断面図である。コントローラ11は、電子機器1の上方空間における上部エリアR1と下部エリアR2との境界線を任意に設定可能である。図5に示す上部エリアR1とは、電子機器1を正面から視認したときの上半分の上方のエリアである。図5に示す下部エリアR2とは、電子機器1を正面から視認したときの下半分の上方のエリアである。電子機器1と上部エリアR1又は下部エリアR2との距離は例えば100[mm]である。コントローラ11は、近接センサ16を用いて、ユーザによるジェスチャが上部エリアR1と下部エリアR2とのいずれ(又はその他のエリア)で行われたかを判定する。
5 is a cross-sectional view taken along the line AA in FIG. The controller 11 can arbitrarily set a boundary line between the upper area R1 and the lower area R2 in the upper space of the electronic device 1. The upper area R1 shown in FIG. 5 is an area above the upper half when the electronic device 1 is viewed from the front. The lower area R2 shown in FIG. 5 is an area above the lower half when the electronic device 1 is viewed from the front. The distance between the electronic device 1 and the upper area R1 or the lower area R2 is, for example, 100 [mm]. The controller 11 uses the
コントローラ11は、第1の画面の操作を、上部エリアR1で行われたジェスチャの操作に割り当て、第2の画面の操作を、下部エリアR2で行われたジェスチャの操作に割り当てる。 The controller 11 assigns the operation on the first screen to the operation of the gesture performed in the upper area R1, and assigns the operation on the second screen to the operation of the gesture performed in the lower area R2.
すなわち、ジェスチャが上部エリアR1で行われたと判定したとき、コントローラ11は、検出されたジェスチャに基づいて第1の画面の操作を実行する。例えばコントローラ11は、第1のジェスチャ(例えば上下のジェスチャ)が上部エリアR1で行われたと判定したとき、第1の画面において第1の操作(例えば縦スクロール)を実行してもよい。またコントローラ11は第2のジェスチャ(例えば左右のジェスチャ)が上部エリアR1で行われたと判定したとき、第1の画面において第2の操作(例えば横スクロール)を実行してもよい。 That is, when it is determined that the gesture has been performed in the upper area R1, the controller 11 performs an operation on the first screen based on the detected gesture. For example, when it is determined that the first gesture (for example, upper and lower gestures) is performed in the upper area R1, the controller 11 may execute the first operation (for example, vertical scroll) on the first screen. Further, when it is determined that the second gesture (for example, the left and right gesture) is performed in the upper area R1, the controller 11 may execute the second operation (for example, horizontal scroll) on the first screen.
他方、ジェスチャが下部エリアR2で行われたと判定したとき、コントローラ11は、検出されたジェスチャに基づいて第2の画面の操作を実行する。例えばコントローラ11は、第1のジェスチャ(例えば上下のジェスチャ)が下部エリアR2で行われたと判定したとき、第2の画面において第3の操作(例えばページ送り)を実行してもよい。またコントローラ11は第2のジェスチャ(例えば左右のジェスチャ)が下部エリアR2で行われたと判定したとき、第2の画面において第4の操作(例えばページ戻し)を実行してもよい。 On the other hand, when it is determined that the gesture has been performed in the lower area R2, the controller 11 performs an operation on the second screen based on the detected gesture. For example, when the controller 11 determines that the first gesture (for example, upper and lower gestures) has been performed in the lower area R2, the controller 11 may perform a third operation (for example, page feed) on the second screen. Further, when it is determined that the second gesture (for example, the left and right gestures) has been performed in the lower area R2, the controller 11 may execute a fourth operation (for example, page return) on the second screen.
ユーザによるジェスチャがいずれのエリアで行われたかをより正確に判定するための方法を次に示す。 A method for more accurately determining in which area the user's gesture is performed will be described below.
図6は、図2のA−A断面図である。図6に示す上部エリアR3と下部エリアR4は電子機器1の上方空間におけるエリアである。上部エリアR3と下部エリアR4との境界線は、照度センサ17を通って、電子機器1の短手方向に平行な平面上に存在する。ユーザの手が図6に示す上部エリアR3に存在するとき、照度センサ17の上方(図6に向かって上方)にはユーザの手又は手首が存在する。このときユーザの手又は手首により、照度センサ17への入射光が一部遮られるため、照度センサ17が出力する照度値は照度センサ17の上方にユーザの手又は手首がないときに比べて低くなる。一方ユーザの手が下部エリアR4に存在するとき、照度センサ17の上方にはユーザの手又は手首が存在しない。このとき照度センサ17への入射光はユーザの手又は手首によってほぼ遮られないため、照度センサ17が出力する照度値は照度センサ17の上方にユーザの手又は手首があるときに比べて高くなる。
6 is a cross-sectional view taken along the line AA in FIG. An upper area R <b> 3 and a lower area R <b> 4 shown in FIG. 6 are areas in the upper space of the electronic device 1. The boundary line between the upper area R3 and the lower area R4 passes through the
そこでコントローラ11は、近接センサ16からの出力値を取得しつつ、照度センサ17からの出力値を取得してその変化の程度を判定することにより、ユーザによるジェスチャが上部エリアR3と下部エリアR4とのどちらで行われたかを判定してもよい。当該判定により、コントローラ11は例えば、第1の画面の操作を、上部エリアR3で行われたジェスチャの操作に割り当て、第2の画面の操作を、下部エリアR4で行われたジェスチャの操作に割り当てることができる。
Therefore, the controller 11 obtains the output value from the
以上説明したように、第1の制御方法では、コントローラ11は、第1の画面の操作を第1のジェスチャの操作に割り当て、第2の画面の操作を第2のジェスチャの操作に割り当てる。これによりユーザは、例えば料理中に、複数のレシピのそれぞれを異なる画面に表示させ、電子機器1に触れることなくそれぞれの画面に対して操作を実行することができる。したがって、複数の画面に対する操作性が向上する。 As described above, in the first control method, the controller 11 assigns the operation on the first screen to the operation of the first gesture, and assigns the operation on the second screen to the operation of the second gesture. Thereby, the user can display each of a plurality of recipes on different screens during cooking, for example, and can perform an operation on each screen without touching the electronic device 1. Therefore, the operability for a plurality of screens is improved.
[第2の制御方法]
次に第2の制御方法を説明する。コントローラ11は、第1のジェスチャの操作を第1の画面又は第2の画面の選択操作に割り当てる。またコントローラ11は、第2のジェスチャの操作を、選択された第1の画面又は第2の画面の操作に割り当てることができる。例えばコントローラ11は、第1の画面と第2の画面との両方において、横スクロールと縦スクロールのうち例えば縦スクロールのみ実行可能である場合、左右のジェスチャの操作を、第1の画面と第2の画面とのいずれをアクティブにするかの選択操作に割り当てる。コントローラ11は、上下のジェスチャの操作を、第1の画面又は第2の画面のうち選択されたアクティブな画面の縦スクロール操作に割り当てる。
[Second control method]
Next, the second control method will be described. The controller 11 assigns the operation of the first gesture to the selection operation of the first screen or the second screen. Further, the controller 11 can assign the operation of the second gesture to the operation of the selected first screen or second screen. For example, when the controller 11 can execute only horizontal scrolling, for example, horizontal scrolling or vertical scrolling on both the first screen and the second screen, the controller 11 performs the operation of the left and right gestures on the first screen and the second screen. Assign to the operation to select which screen to activate. The controller 11 assigns the operation of the upper and lower gestures to the vertical scroll operation of the active screen selected from the first screen or the second screen.
第2の制御方法では、コントローラ11は、第1のジェスチャの操作を、第1の画面又は第2の画面の選択操作に割り当て、第2のジェスチャの操作を、選択された第1の画面又は第2の画面の操作に割り当てる。これによりユーザは、電子機器1に触れることなく、操作したい所望の画面を選択し、当該画面に対して操作を実行することができる。したがって、複数の画面に対する操作性が向上する。 In the second control method, the controller 11 assigns the operation of the first gesture to the selection operation of the first screen or the second screen, and assigns the operation of the second gesture to the selected first screen or Assigned to the operation on the second screen. As a result, the user can select a desired screen to operate without touching the electronic device 1 and execute the operation on the screen. Therefore, the operability for a plurality of screens is improved.
図7は、一実施形態の電子機器1が任意の時点で定期的又は不定期的に実行する第1の制御方法の一例を示すフロー図である。任意の時点とは例えば、コントローラ11が、電子機器1において所定のモードが起動され複数の画面が表示されたことを検出したときである。 FIG. 7 is a flowchart illustrating an example of a first control method that the electronic apparatus 1 according to the embodiment executes regularly or irregularly at an arbitrary time point. For example, the arbitrary time point is when the controller 11 detects that a predetermined mode is activated in the electronic device 1 and a plurality of screens are displayed.
電子機器1は、第1の画面の操作を第1のジェスチャの操作に割り当て、第2の画面の操作を第2のジェスチャの操作に割り当てる(ステップS1)。第1のジェスチャは例えば左右のジェスチャ、電子機器1の上部エリアでのジェスチャ等である。第2のジェスチャは例えば上下のジェスチャ、電子機器1の下部エリアでのジェスチャ等である。電子機器1は、近接センサ16の出力値を取得する(ステップS2)。電子機器1は、当該出力値に基づいて、第1のジェスチャを検出したか否かを判定する(ステップS3)。電子機器1は、第1のジェスチャを検出すると(ステップS3のYes)、第1のジェスチャの操作に割り当てられた、第1の画面の操作を実行する(ステップS4)。 The electronic device 1 assigns the operation on the first screen to the operation of the first gesture, and assigns the operation on the second screen to the operation of the second gesture (step S1). The first gesture is, for example, a left / right gesture, a gesture in the upper area of the electronic device 1, or the like. The second gesture is, for example, an upper or lower gesture, a gesture in the lower area of the electronic device 1, or the like. The electronic device 1 acquires the output value of the proximity sensor 16 (step S2). The electronic device 1 determines whether or not the first gesture has been detected based on the output value (step S3). When the electronic device 1 detects the first gesture (Yes in Step S3), the electronic device 1 executes the operation on the first screen assigned to the operation of the first gesture (Step S4).
他方、電子機器1は、第1のジェスチャを検出しないと判定したとき(ステップS3のNo)、第2のジェスチャを検出したか否かを判定する(ステップS5)。電子機器1は第2のジェスチャを検出すると(ステップS5のYes)、第2のジェスチャの操作に割り当てられた第2の画面の操作を実行する(ステップS6)。 On the other hand, when it is determined that the first gesture is not detected (No in Step S3), the electronic device 1 determines whether or not the second gesture is detected (Step S5). When the electronic device 1 detects the second gesture (Yes in step S5), the electronic device 1 executes the operation on the second screen assigned to the operation of the second gesture (step S6).
図8は、一実施形態の電子機器1が任意の時点で定期的又は不定期的に実行する第2の制御方法の一例を示すフロー図である。 FIG. 8 is a flowchart illustrating an example of a second control method that the electronic apparatus 1 according to the embodiment executes regularly or irregularly at an arbitrary time point.
電子機器1は、第1のジェスチャの操作を第1の画面又は第2の画面の選択操作に割り当て、第2のジェスチャの操作を、選択された第1の画面又は第2の画面の操作に割り当てる(ステップS11)。第1のジェスチャとは例えば縦スクロール画面に対する左右のジェスチャである。第2のジェスチャとは例えば縦スクロール画面に対する上下のジェスチャである。電子機器1は近接センサ16の出力値を取得する(ステップS12)。電子機器1は当該出力値に基づいて、第1のジェスチャを検出したか否かを判定する(ステップS13)。電子機器1は、第1のジェスチャを検出すると(ステップS13のYes)、選択されたアクティブな画面を別の画面に切り換える(ステップS14)。 The electronic device 1 assigns the operation of the first gesture to the selection operation of the first screen or the second screen, and the operation of the second gesture is the operation of the selected first screen or the second screen. Assign (step S11). The first gesture is, for example, a left / right gesture for a vertical scroll screen. The second gesture is, for example, an up / down gesture for a vertical scroll screen. The electronic device 1 acquires the output value of the proximity sensor 16 (step S12). The electronic device 1 determines whether or not the first gesture has been detected based on the output value (step S13). When the electronic device 1 detects the first gesture (Yes in step S13), the electronic device 1 switches the selected active screen to another screen (step S14).
他方、電子機器1は、第1のジェスチャを検出しないと判定したとき(ステップS13のNo)、第2のジェスチャを検出したか否かを判定する(ステップS15)。電子機器1は、第2のジェスチャを検出すると(ステップS15のYes)、第1の画面及び第2の画面のうち選択されたアクティブな画面に対して、第2のジェスチャの操作に割り当てられた操作を実行する(ステップS16)。 On the other hand, when it is determined that the first gesture is not detected (No in Step S13), the electronic device 1 determines whether or not the second gesture is detected (Step S15). When the electronic device 1 detects the second gesture (Yes in step S15), the electronic device 1 is assigned to the operation of the second gesture with respect to the active screen selected from the first screen and the second screen. The operation is executed (step S16).
[他の実施形態]
上記実施形態では、近接センサ16は、電子機器1の下部に1つだけ設けられる。他の実施形態では図9に示すように、電子機器1は近接センサ16を電子機器1の上部に更に1つ備えてもよい。このときコントローラ11は、2つ目の画面(第2の画面)が表示されると電子機器1の2つの近接センサ16を駆動して、ディスプレイ13の上部に表示される第1の画面の操作を、電子機器1の上部の近接センサ16で検出されたジェスチャの操作に割り当ててもよい。またコントローラ11は、ディスプレイ13の下部に表示される第2の画面の操作を、電子機器1の下部の近接センサ16で検出されたジェスチャの操作に割り当ててもよい。代替例として、電子機器1の上部の近接センサ16に代えて、インカメラであるカメラ12又は照度センサ17をジェスチャの検出に用いてもよい。この場合、電子機器1の下部のみに近接センサ16が設けられるため、コントローラ11は、電子機器1を用いた通話時に近接センサ16が反応してディスプレイ13を消灯できるよう、当該近接センサ16の近接反応パラメータを調整する。
[Other Embodiments]
In the above embodiment, only one
上記第1の制御方法では、コントローラ11は第1の画面の操作を第1のジェスチャの操作に割り当て、第2の画面の操作を第2のジェスチャの操作に割り当てる。他の実施形態では一例としてディスプレイ13に3つの画面が一部重畳して表示される。このときコントローラ11は、第1の画面の操作を第1のジェスチャの操作に割り当て、第2の画面の操作を第2のジェスチャの操作に割り当て、第3の画面の操作を第3のジェスチャの操作に割り当ててもよい。代替例としてコントローラ11は、重畳する3つの画面のうち、前面から順に第1の画面、第2の画面、及び第3の画面と設定し、第1の画面の操作を第1のジェスチャの操作に割り当て、第2の画面の操作を第2のジェスチャの操作に割り当ててもよい。すなわち、コントローラ11は複数の画面に優先順位を設定して、優先順位が低く設定された画面にはジェスチャの操作を割り当てなくてもよい。
In the first control method, the controller 11 assigns the operation on the first screen to the operation of the first gesture, and assigns the operation on the second screen to the operation of the second gesture. In another embodiment, as an example, three screens are partially overlapped and displayed on the
上記第2の制御方法では、コントローラ11は、第1の画面と第2の画面との両方において、横スクロールと縦スクロールのうち例えば縦スクロールのみ実行可能である場合、第1のジェスチャの操作を第1の画面又は第2の画面の選択操作に割り当てる。他の実施形態では一例として、ディスプレイ13に3つの画面が表示されるため、第1のジェスチャの操作は、第1の画面、第2の画面、及び第3の画面の選択操作に割り当てられる。ディスプレイ13に画面が4つ以上表示される場合も同様である。
In the second control method, the controller 11 performs the operation of the first gesture when, for example, only the vertical scroll can be executed out of the horizontal scroll and the vertical scroll on both the first screen and the second screen. It assigns to selection operation of the 1st screen or the 2nd screen. In another embodiment, as an example, since three screens are displayed on the
上記第2の制御方法では、コントローラ11は、第1の画面と第2の画面との両方において、横スクロールと縦スクロールのうち例えば縦スクロールのみ実行可能である場合、第1のジェスチャの操作を第1の画面又は第2の画面の選択操作に割り当てる。他の実施形態では、第1の画面と第2の画面との両方において、横スクロールと縦スクロールのうち横スクロールのみ実行可能である。このときコントローラ11は、上下のジェスチャの操作を、第1の画面と第2の画面とのいずれをアクティブにするかの選択操作に割り当て、左右のジェスチャの操作を、第1の画面又は第2の画面のうちアクティブな画面の横スクロール操作に割り当てる。 In the second control method, the controller 11 performs the operation of the first gesture when, for example, only the vertical scroll can be executed out of the horizontal scroll and the vertical scroll on both the first screen and the second screen. It assigns to selection operation of the 1st screen or the 2nd screen. In another embodiment, only horizontal scrolling can be executed among horizontal scrolling and vertical scrolling on both the first screen and the second screen. At this time, the controller 11 assigns the operation of the upper and lower gestures to a selection operation for activating which of the first screen and the second screen, and the operation of the left and right gestures is performed on the first screen or the second screen. Assigned to the horizontal scroll operation of the active screen.
上記実施形態では、電子機器1の下部に近接センサ16が設けられ、電子機器1の上部に照度センサ17が設けられる。他の実施形態では、電子機器1の下部に近接センサ16と照度センサ17とが設けられてもよい。
In the above embodiment, the
本開示内容の多くの側面は、プログラム命令を実行可能なコンピュータシステムその他のハードウェアにより実行される、一連の動作として示される。コンピュータシステムその他のハードウェアには、例えば、汎用コンピュータ、PC(パーソナルコンピュータ)、専用コンピュータ、ワークステーション、PCS(Personal Communications System、パーソナル移動通信システム)、移動(セルラー)電話機、データ処理機能を備えた移動電話機、RFID(Radio Frequency IDentification)受信機、ゲーム機、電子ノートパッド、ラップトップコンピュータ、GPS(Global Positioning System)受信機またはその他のプログラム可能なデータ処理装置が含まれる。各実施形態では、種々の動作は、プログラム命令(ソフトウェア)で実装された専用回路(例えば、特定機能を実行するために相互接続された個別の論理ゲート)や、一以上のプロセッサにより実行される論理ブロックやプログラムモジュール等により実行されることに留意されたい。論理ブロックやプログラムモジュール等を実行する一以上のプロセッサには、例えば、一以上のマイクロプロセッサ、CPU(中央演算処理ユニット)、ASIC(Application Specific Integrated Circuit)、DSP(Digital Signal Processor)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、プロセッサ、コントローラ、マイクロコントローラ、マイクロプロセッサ、電子機器、ここに記載する機能を実行可能に設計されたその他の装置及び/またはこれらいずれかの組合せが含まれる。ここに示す実施形態は、例えば、ハードウェア、ソフトウェア、ファームウェア、ミドルウェア、マイクロコードまたはこれらいずれかの組合せにより実装される。命令は、必要なタスクを実行するためのプログラムコードまたはコードセグメントであってもよい。そして、命令は、機械読取り可能な非一時的記憶媒体その他の媒体に格納することができる。コードセグメントは、手順、関数、サブプログラム、プログラム、ルーチン、サブルーチン、モジュール、ソフトウェアパッケージ、クラスまたは命令、データ構造もしくはプログラムステートメントのいずれかの任意の組合せを示すものであってもよい。コードセグメントは、他のコードセグメントまたはハードウェア回路と、情報、データ引数、変数または記憶内容の送信及び/または受信を行い、これにより、コードセグメントが他のコードセグメントまたはハードウェア回路と接続される。 Many aspects of the present disclosure are presented as a series of operations performed by a computer system or other hardware capable of executing program instructions. The computer system and other hardware include, for example, a general-purpose computer, a PC (personal computer), a dedicated computer, a workstation, a PCS (Personal Communications System), a mobile (cellular) telephone, and a data processing function. Mobile telephones, RFID (Radio Frequency IDentification) receivers, game consoles, electronic notepads, laptop computers, GPS (Global Positioning System) receivers or other programmable data processing devices are included. In each embodiment, various operations are performed by dedicated circuitry (eg, individual logic gates interconnected to perform a specific function) implemented by program instructions (software), or by one or more processors. Note that it is executed by a logic block, a program module, or the like. The one or more processors that execute logic blocks, program modules, and the like include, for example, one or more microprocessors, a CPU (Central Processing Unit), an ASIC (Application Specific Integrated Circuit), a DSP (Digital Signal Processor), a PLD (Programmable). Includes Logic Devices), FPGAs (Field Programmable Gate Arrays), processors, controllers, microcontrollers, microprocessors, electronics, other devices designed to perform the functions described herein, and / or any combination thereof It is. The embodiments shown here are implemented by, for example, hardware, software, firmware, middleware, microcode, or any combination thereof. The instructions may be program code or code segments for performing the necessary tasks. The instructions can then be stored on a machine-readable non-transitory storage medium or other medium. A code segment may represent any combination of procedures, functions, subprograms, programs, routines, subroutines, modules, software packages, classes or instructions, data structures or program statements. A code segment transmits and / or receives information, data arguments, variables or stored contents with other code segments or hardware circuits, thereby connecting the code segments with other code segments or hardware circuits .
ここで用いられるストレージは、さらに、ソリッドステートメモリ、磁気ディスク及び光学ディスクの範疇で構成されるコンピュータ読取り可能な有形のキャリア(媒体)として構成することができ、かかる媒体には、ここに開示する技術をプロセッサに実行させるためのプログラムモジュール等のコンピュータ命令の適宜なセットや、データ構造が格納される。コンピュータ読取り可能な媒体には、一つ以上の配線を備えた電気的接続、磁気ディスク記憶媒体、磁気カセット、磁気テープ、その他の磁気及び光学記憶装置(例えば、CD(Compact Disk)、レーザーディスク(登録商標)、DVD(登録商標)(Digital Versatile Disc)、フロッピー(登録商標)ディスク及びブルーレイディスク(登録商標))、可搬型コンピュータディスク、RAM(Random Access Memory)、ROM(Read-Only Memory)、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)もしくはフラッシュメモリ等の書換え可能でプログラム可能なROMもしくは情報を格納可能な他の有形の記憶媒体またはこれらいずれかの組合せが含まれる。メモリは、プロセッサ/プロセッシングユニットの内部及び/または外部に設けることができる。ここで用いられるように、「メモリ」という語は、あらゆる種類の長期記憶用、短期記憶用、揮発性、不揮発性その他のメモリを意味し、特定の種類やメモリの数または記憶が格納される媒体の種類は限定されない。 The storage used herein can be further configured as a computer readable tangible carrier (medium) comprised of solid state memory, magnetic disks and optical disks, such media being disclosed herein. An appropriate set of computer instructions, such as program modules, that cause the processor to execute the technique, and data structures are stored. Computer readable media include electrical connections with one or more wires, magnetic disk storage media, magnetic cassettes, magnetic tapes, and other magnetic and optical storage devices (eg CD (Compact Disk), laser disks ( (Registered trademark), DVD (registered trademark) (Digital Versatile Disc), floppy (registered trademark) disk and Blu-ray Disc (registered trademark)), portable computer disk, RAM (Random Access Memory), ROM (Read-Only Memory), EPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), flash memory, rewritable and programmable ROM, other tangible storage media capable of storing information, or any combination thereof Is included. The memory can be provided inside and / or outside the processor / processing unit. As used herein, the term “memory” means any type of long-term storage, short-term storage, volatile, non-volatile, or other memory in which a particular type or number of memories or storage is stored. The type of medium is not limited.
1 電子機器
11 コントローラ
12 カメラ
13 ディスプレイ
14 ストレージ
15 通信ユニット
16 近接センサ
17 照度センサ
DESCRIPTION OF SYMBOLS 1 Electronic device 11
Claims (4)
第1の画面及び第2の画面を表示するディスプレイと、
前記センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備え、
前記コントローラは、
前記第1の画面の前記第1のジェスチャの方向への操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の前記第1のジェスチャの方向への操作を前記第2のジェスチャの操作に割り当てる、
電子機器。 A sensor for detecting a gesture that does not touch the own device,
A display for displaying the first screen and the second screen;
Based on the output of the previous xenon capacitors, and a controller for determining the first gesture and the second gesture,
With
The controller is
Assigning an operation in the direction of the first gesture on the first screen to the operation of the first gesture;
Assigning an operation in the direction of the first gesture on the second screen to the operation of the second gesture;
Electronics.
第1の画面及び第2の画面を表示するディスプレイと、
前記センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断するコントローラと、
を備え、
前記コントローラは、
前記第1の画面および前記第2の画面が、前記第2のジェスチャの方向へのみ操作可能な場合に、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の前記第2のジェスチャの方向への操作に割り当てる、
電子機器。 A sensor for detecting a gesture that does not touch the own device,
A display for displaying the first screen and the second screen;
Based on the output of the previous xenon capacitors, and a controller for determining the first gesture and the second gesture,
With
The controller is
When the first screen and the second screen can be operated only in the direction of the second gesture,
Assigning the operation of the first gesture to the selection operation of the first screen or the second screen;
Assigning the operation of the second gesture to the operation of the selected first screen or the second screen in the direction of the second gesture ;
Electronics.
第1の画面及び第2の画面をディスプレイに表示させ、
前記センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断し、
前記第1の画面の前記第1のジェスチャの方向への操作を前記第1のジェスチャの操作に割り当て、
前記第2の画面の前記第1のジェスチャの方向への操作を前記第2のジェスチャの操作に割り当てる、
制御方法。 A control method for an electronic device including a sensor for detecting a gesture that does not touch the own device,
Display the first screen and the second screen on the display;
Based on the output of the previous xenon capacitors determines the first gesture and the second gesture,
Assigning an operation in the direction of the first gesture on the first screen to the operation of the first gesture;
Assigning an operation in the direction of the first gesture on the second screen to the operation of the second gesture;
Control method.
第1の画面及び第2の画面をディスプレイに表示させ、
前記センサの出力に基づいて、第1のジェスチャ及び第2のジェスチャを判断し、
前記第1の画面および前記第2の画面が、前記第2のジェスチャの方向へのみ操作可能な場合に、
前記第1のジェスチャの操作を、前記第1の画面又は前記第2の画面の選択操作に割り当て、
前記第2のジェスチャの操作を、選択された前記第1の画面又は前記第2の画面の前記第2のジェスチャの方向への操作に割り当てる、
制御方法。
A control method for an electronic device including a sensor for detecting a gesture that does not touch the own device,
Display the first screen and the second screen on the display;
Based on the output of the previous xenon capacitors determines the first gesture and the second gesture,
When the first screen and the second screen can be operated only in the direction of the second gesture,
Assigning the operation of the first gesture to the selection operation of the first screen or the second screen;
Assigning the operation of the second gesture to the operation of the selected first screen or the second screen in the direction of the second gesture ;
Control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018103989A JP6387204B2 (en) | 2018-05-30 | 2018-05-30 | Electronic device and control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018103989A JP6387204B2 (en) | 2018-05-30 | 2018-05-30 | Electronic device and control method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017124705A Division JP6387154B2 (en) | 2017-06-27 | 2017-06-27 | Electronic device and control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6387204B2 true JP6387204B2 (en) | 2018-09-05 |
JP2018139148A JP2018139148A (en) | 2018-09-06 |
Family
ID=63444282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018103989A Active JP6387204B2 (en) | 2018-05-30 | 2018-05-30 | Electronic device and control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6387204B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110310005A1 (en) * | 2010-06-17 | 2011-12-22 | Qualcomm Incorporated | Methods and apparatus for contactless gesture recognition |
WO2013105443A1 (en) * | 2012-01-13 | 2013-07-18 | ソニー株式会社 | Information processing device and information processing method, as well as computer program |
KR101984683B1 (en) * | 2012-10-10 | 2019-05-31 | 삼성전자주식회사 | Multi display device and method for controlling thereof |
JP2015087824A (en) * | 2013-10-28 | 2015-05-07 | オムロン株式会社 | Screen operation device and screen operation method |
CN105653163A (en) * | 2014-11-14 | 2016-06-08 | 富泰华工业(深圳)有限公司 | Character input system and method for portable electronic device |
JP5932082B2 (en) * | 2015-03-04 | 2016-06-08 | 株式会社東芝 | Recognition device |
-
2018
- 2018-05-30 JP JP2018103989A patent/JP6387204B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018139148A (en) | 2018-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6282696B2 (en) | Electronic device and control method | |
JP6239796B1 (en) | Electronics | |
US9116595B2 (en) | Device, method, and storage medium storing program | |
US10712828B2 (en) | Electronic device, recording medium, and control method | |
JP6360112B2 (en) | Electronics | |
WO2018092659A1 (en) | Electronic apparatus, program, and control method | |
JP6387154B2 (en) | Electronic device and control method | |
JP6169298B1 (en) | Electronic device and control method | |
US20180299989A1 (en) | Electronic device, recording medium, and control method | |
JP6186488B1 (en) | Electronic device, control method and program | |
JP2019144955A (en) | Electronic device, control method and program | |
JP6387204B2 (en) | Electronic device and control method | |
WO2019163503A1 (en) | Electronic device, control method, and program | |
JP6401843B2 (en) | Electronic device, control method and program | |
EP3674656A1 (en) | Electronic apparatus, program, and control method | |
JP6276340B2 (en) | Electronic device, control method and program | |
JP6374477B2 (en) | Electronic device, control method and program | |
JP2019145094A (en) | Electronic device, control method, and program | |
US20180188817A1 (en) | Electronic device, computer-readable non-transitory recording medium, and control method | |
JP6173625B1 (en) | Electronic device, program, and control method | |
JP2020177428A (en) | Electronic apparatus, method for control, and program | |
JP2019145068A (en) | Electronic device, control method, and program | |
JP2019144954A (en) | Electronic device, control method, and program | |
JP2018109955A (en) | Electronic device, program and control method | |
JP2018109873A (en) | Electronic device, program and control method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180530 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180530 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180530 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180810 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6387204 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |