JPWO2019003571A1 - Electronic device, control method and program for electronic device - Google Patents
Electronic device, control method and program for electronic device Download PDFInfo
- Publication number
- JPWO2019003571A1 JPWO2019003571A1 JP2019526168A JP2019526168A JPWO2019003571A1 JP WO2019003571 A1 JPWO2019003571 A1 JP WO2019003571A1 JP 2019526168 A JP2019526168 A JP 2019526168A JP 2019526168 A JP2019526168 A JP 2019526168A JP WO2019003571 A1 JPWO2019003571 A1 JP WO2019003571A1
- Authority
- JP
- Japan
- Prior art keywords
- contact
- function execution
- camera
- function
- regions
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 27
- 238000001514 detection method Methods 0.000 claims description 9
- 230000006870 function Effects 0.000 description 105
- 230000008569 process Effects 0.000 description 22
- 238000012545 processing Methods 0.000 description 22
- 238000003384 imaging method Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
- G03B17/02—Bodies
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
- Studio Devices (AREA)
- Camera Bodies And Camera Details Or Accessories (AREA)
Abstract
ユーザの誤った接触を検出することを原因とする誤操作を低減する。機能を実行するカメラ(12)と、上記カメラから所定の範囲内に配置された接触を検出するセンサ(11)と、上記所定の範囲内に設定された複数の領域に対する上記接触に応じて、上記カメラの機能実行を制御するカメラ制御部(132)とを備えている電子機器。An erroneous operation caused by detecting an erroneous touch by the user is reduced. A camera (12) that executes a function, a sensor (11) that detects a contact arranged in a predetermined range from the camera, and a contact to a plurality of areas set in the predetermined range according to the contact. An electronic device comprising: a camera control section (132) for controlling the function execution of the camera.
Description
本発明は自機器に備えられた機能を実行するデバイスを備えている電子機器に関する。 The present invention relates to an electronic device including a device that executes a function provided in the device.
これまでに、情報端末が備えているデバイスの周辺にセンサを設け、デバイスの機能を実行するにあたり該センサの検出値を用いる技術が開発されている。例えば、特許文献1には、カメラの周囲において指の接触が検出された場合に、撮影画像に指が写り込んでいることを示す注意喚起を表示する携帯端末が開示されている。 Hitherto, a technology has been developed in which a sensor is provided around a device provided in an information terminal and a detection value of the sensor is used when executing a function of the device. For example, Patent Literature 1 discloses a mobile terminal that displays a reminder indicating that a finger is included in a captured image when a finger touch is detected around a camera.
しかしながら、特許文献1に開示されている指の接触を検出する構成では、ユーザが単にカメラのレンズの周囲に接触しただけで、指の接触が検出されてしまう。 However, in the configuration for detecting finger contact disclosed in Patent Literature 1, finger contact is detected simply by the user touching the periphery of the camera lens.
そのため、例えば、情報端末等に備わっているデバイスの周辺に対してユーザが接触することによって該デバイスに対する操作を行う構成に、特許文献1に開示されている接触を検出する構成を用いると以下のような問題が生じる。すなわち、ユーザが誤ってデバイス周辺に接触すると、該デバイスに対してユーザが意図していない操作が生じてしまうという問題が生じる。 Therefore, for example, when the configuration for detecting a contact disclosed in Patent Literature 1 is used as the configuration for performing an operation on a device provided in an information terminal or the like by a user touching the periphery of the device, the following configuration is used. Such a problem arises. That is, if the user accidentally touches the periphery of the device, there is a problem that an operation not intended by the user is performed on the device.
本発明は、前記の問題点に鑑みてなされたものであり、本発明の一態様は、ユーザの誤った接触を検出することを原因とする誤操作を低減することができる情報端末を実現することを目的とする。 The present invention has been made in view of the above-described problems, and an aspect of the present invention is to provide an information terminal capable of reducing erroneous operations caused by detecting an erroneous contact of a user. With the goal.
上記の課題を解決するために、本発明の一態様に係る電子機器は、自機器に備えられた機能を実行する機能実行部と、上記機能実行部から所定の範囲内に配置されたユーザの接触を検出するセンサと、上記センサの検出値から、上記所定の範囲内に設定された複数の領域に対する上記接触を判定する接触判定部と、上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御部とを備えている。 In order to solve the above-described problem, an electronic device according to one embodiment of the present invention includes a function execution unit that executes a function provided in the own device, and a user who is disposed within a predetermined range from the function execution unit. A sensor that detects a contact, a contact determination unit that determines the contact with respect to a plurality of regions set within the predetermined range from a detection value of the sensor, and a function that responds to the contact with the plurality of regions. A function execution control unit that controls execution of the function of the execution unit.
上記の課題を解決するために、本発明の一態様に係る電子機器の制御方法は、自機器に備えられた機能を実行する機能実行部から所定の範囲内に配置された接触を検出するセンサの検出値から、上記所定の範囲内に設定された複数の領域に対する上記接触を判定する接触判定ステップと、上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御ステップと、を含む。 In order to solve the above problem, a control method of an electronic device according to one embodiment of the present invention includes a sensor that detects a contact arranged within a predetermined range from a function execution unit that executes a function provided in the own device. A contact determining step of determining the contact with respect to a plurality of regions set within the predetermined range from the detected value, and a function of controlling execution of a function of the function executing unit in accordance with the contact with the plurality of regions. Execution control step.
本発明の一態様によれば、接触操作において、ユーザが意図せずに接触した場合の誤操作を低減するという効果を奏する。 Advantageous Effects of Invention According to one aspect of the present invention, in a contact operation, there is an effect that an erroneous operation when the user makes an unintended contact is reduced.
〔実施形態1〕
以下、本発明の実施の形態について、図1から図3および図8を参照して詳細に説明する。[Embodiment 1]
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 1 to 3 and FIG.
(情報端末1の概要)
まず、本実施形態に係る情報端末(電子機器)1の概要について、図2および図8を参照して説明する。図2は情報端末1の概要を示す図である。また、図8は参考の形態に係る情報端末100の概要を示す図である。はじめに、図8を参照して参考の形態について説明する。図8に示すように、情報端末100はタッチパネル102、センサ111およびカメラ112を備えている。タッチパネル102の形状は、切欠きF100を含む形状である。センサ111およびカメラ112は切欠きF100内に配置している。センサ111はユーザの指の接触を検出するセンサであり、カメラ112を囲むように配置されている。図8に示す×印は、カメラ112の周辺領域におけるユーザの接触点を示している。センサ111にてカメラ112の周辺領域におけるユーザの接触を検出した場合、情報端末100はカメラ112による撮像を終了する。情報端末100は、カメラ112の周辺領域の接触点の数、接触した領域等に関わらず、接触を検出するとカメラ112の撮像を終了する。(Overview of Information Terminal 1)
First, an outline of the information terminal (electronic device) 1 according to the present embodiment will be described with reference to FIGS. FIG. 2 is a diagram showing an outline of the information terminal 1. FIG. 8 is a diagram illustrating an outline of the
次に、図2を参照して本実施形態の情報端末1の概要について説明する。図2の(a)および(b)は情報端末1の概要を示す図である。 Next, an outline of the information terminal 1 of the present embodiment will be described with reference to FIG. FIGS. 2A and 2B are diagrams showing an outline of the information terminal 1.
図2に示すように、情報端末1はタッチパネル2、接触を検出するセンサ11およびカメラ(機能実行部)12を備えている。情報端末1は、例えば、タブレット型端末、スマートフォン等であってもよい。タッチパネル2の形状は、欠きF1を含む形状である。カメラ12は切欠きF1内に配置している。図2に示す例では、タッチパネル2の一部の領域がセンサ11として機能する(センサ11はタッチパネル2の一部の領域によって構成されている)。詳細には、切欠きF1を形成するタッチパネル2の縁から所定の範囲内の領域のタッチパネル2がセンサ11として機能する。換言すると、センサ11はカメラ12から所定の範囲内に配置されている。図2の(a)および(b)に示すように、センサ11が配置されている領域には、領域R1、領域R2および領域R3が設定されている。図2に示す例では、タッチパネル2の切欠きF1はコの字の形状である。タッチパネル2には、コの字の各辺を形成する縁から所定の範囲内の領域に、領域R1、領域R2および領域R3が設定されている。
As shown in FIG. 2, the information terminal 1 includes a
図2の(a)に示すように、情報端末1においては、例えば、ユーザの指Uが領域R2のみ接触した場合にはカメラ12による撮像を終了しない。一方で、図2の(b)に示すように、ユーザの指Uが領域R1、領域R2および領域R3にて接触した場合、情報端末1はカメラ12による撮像を終了する。例えば、カメラ12をユーザが手で覆うとカメラ12による撮像が終了する。なお、ユーザの指Uが領域R1、領域R2および領域R3のうち2つ以上の領域に接触した場合に、情報端末1はカメラ12による撮像を終了する構成としてもよい。すなわち、情報端末1は、センサ11の検出値から、所定の範囲内に設定された複数の領域に対する接触を判定し、複数の領域に対する接触に応じて、カメラ12の機能実行を制御する。なお、上述の例においては、領域R1、領域R2および領域R3を切欠きF1を形成するタッチパネル2の辺毎に設定したが、該領域の設定は任意に行うことができる。また、情報端末1は、タッチパネル2がアクティブであるとき(通常モード:表示画面が表示されているとき)に、カメラ12の機能実行を制御するように動作してもよい。また、情報端末1は、タッチパネル2がセーブモードのとき(表示画面が表示されていないとき)に、カメラ12の機能実行を制御するように動作してもよい。
As illustrated in FIG. 2A, in the information terminal 1, for example, when the user's finger U contacts only the region R <b> 2, the imaging by the
上記の構成によれば、カメラ12から所定の範囲内に設定された複数の領域である領域R1、領域R2および領域R3に対する接触に応じてカメラ12の機能実行を制御する。換言すると、所定の範囲内に設定された1つの領域のみの接触では、情報端末1はカメラ12の機能実行を制御しない。そのため、ユーザがカメラ12の機能実行の制御を意図せずにセンサ11が配置している所定の範囲内に接触した場合においても、領域R1、領域R2および領域R3のうち複数の領域に対して接触していなければカメラ12の機能実行の制御は行われない。従って、ユーザがカメラ12の機能実行の制御を意図せずにセンサ11が配置している範囲内を接触することによって生じる誤操作を低減することができる。
According to the above configuration, the function execution of the
(情報端末1の構成)
次に、情報端末1の構成について、図1を参照して説明する。図1は、情報端末1の要部構成を示すブロック図である。図1に示すように、情報端末1は、タッチパネル2、センサ11、カメラ12、制御部13および記憶部14を備えている。(Configuration of Information Terminal 1)
Next, the configuration of the information terminal 1 will be described with reference to FIG. FIG. 1 is a block diagram illustrating a main configuration of the information terminal 1. As shown in FIG. 1, the information terminal 1 includes a
(タッチパネル2)
タッチパネル2は、表示画面に対するユーザの接触操作を受け付ける。特に本実施形態においては、タッチパネル2は形状を自由に設計することが可能なフリーフォームディスプレイである。(Touch panel 2)
The
タッチパネル2は、例えば、表示デバイスとタッチパネルデバイスとを一体としたものである。ユーザは、表示部20を指で触ることによって、表示部20に表示されているアイコン等の操作、および画面のスクロール等を行うことができる。タッチパネル2の形状は、図2の(a)および(b)に示すように、切欠きF1を含む形状である。
The
切欠きF1は、タッチパネル2の上部中央に形成されており、タッチパネル2の表示面の一部を切り欠くように形成されている。なお、図2の(a)および(b)では、切欠きF1は、タッチパネル2の上部中央に形成されているが、切欠きF1がタッチパネル2の外縁の少なくとも1辺に形成されていれば、切欠きF1が形成される場所は特に限定されない。
The notch F1 is formed at the upper center of the
例えば、切欠きF1は、タッチパネル2の上部左端に形成されてもよく、タッチパネル2の上部右端に形成されてもよいし、タッチパネル2の下部、左縁、または右縁に形成されていてもよい。また、切欠きF1は、タッチパネル2の上部中央から左または右にずれて形成されていてもよい。さらに、タッチパネル2に形成される切欠きF1の数は特に限定されない。例えば、切欠きF1は、タッチパネル2の上部に2つ以上形成されてもよい。切欠きF1の形状は、図2の(a)および(b)ではコの字(切欠きの形状が正方形)の形状になっているが、特に限定されない。例えば、切欠きF1の形状は、半円状の形状であってもよいし、長方形であってもよい。
For example, the cutout F1 may be formed at the upper left end of the
(センサ11)
センサ11は、ユーザの接触を検出する。本実施形態においては、図2の(a)および(b)に示すように、タッチパネル2の一部がセンサ11となっている。なお、センサ11がタッチパネル2とは独立したセンサであってもよい。センサ11はユーザの接触を検出できればよく特に限定されないが、例えば、静電容量を用いたセンサ、赤外線センサ等としてもよい。(Sensor 11)
The
また、センサ11はカメラ12の設置位置から所定の範囲内に配置している。ここで、センサ11を配置する所定の範囲とは、例えば、カメラ12の縁から2から3mmまでの範囲としてもよい。センサ11を配置する所定の範囲を、設計の都合に応じて適宜変更してもよい。センサ11は検出値を入力操作判定部(接触判定部)131に送信する。
Further, the
(カメラ12)
カメラ12は被写体を撮像する機能を実行する。カメラ12はカメラ制御部(機能実行制御部)132の指示を受信し、当該指示に従い機能の実行を行う。また、図2の(a)に示すように、カメラ12は切欠きF1内に設置されている。(Camera 12)
The
(制御部13)
制御部13は情報端末1の各部を統括して制御する。制御部13は入力操作判定部131およびカメラ制御部132を備えている。(Control unit 13)
The
(入力操作判定部131)
入力操作判定部131は、センサ11の検出値から、センサ11が配置している所定の範囲内に設定された複数の領域に対するユーザの接触を判定する。複数の領域とは、例えば、図2に示す領域R1、領域R2および領域R3等である。詳細には、入力操作判定部131は、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれたか否かを判定する。さらに詳細に説明すると、入力操作判定部131は、記憶部14に格納されているカメラ12の起動状態を示すカメラ状態情報141を参照し、カメラ12が起動している(カメラ12が撮像処理を行っている)か否かを判定する。カメラ12が起動している場合、入力操作判定部131は複数の領域のうち2つ以上の領域に対して同時の接触が行なわれたか否かを判定する。2つ以上の領域に対して同時の接触が行なわれた場合、入力操作判定部131はその旨をカメラ制御部132に送信する。(Input operation determination unit 131)
The input
(カメラ制御部132)
カメラ制御部132はカメラ12の機能実行を制御する。カメラ制御部132は複数の領域に対する接触に応じて、カメラ12の機能実行を制御する。詳細には、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合、カメラ制御部132はカメラ12(カメラ12による撮像)を終了させる。また、カメラ制御部132はカメラ12による撮像を終了させると、記憶部14に格納されているカメラ状態情報141を更新する。(Camera control unit 132)
The
(情報端末1の処理の流れ)
次に図3を参照して、情報端末1の処理について説明する。図3は、情報端末1が実行する処理の流れの一例を示すフローチャートである。例えば、カメラ12の周辺領域に対する接触操作の受付けが可能となった場合、情報端末1は当該処理を開始してもよい。例えば、カメラ12を用いるアプリケーションが起動した場合に、情報端末1は当該処理を開始してもよい。図3に示すように、入力操作判定部131はカメラ12が起動しているか否かを判定する(S1)。カメラ12が起動している場合(S1にてYES)、入力操作判定部131は複数の領域のうち2つ以上の領域に対して同時の接触が行なわれたか否かを判定する(S2:接触判定ステップ)。複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合(S2にてYES)、カメラ制御部132はカメラ12(カメラ12による撮像)を終了させ(S3:機能実行制御ステップ)、処理は終了する。なお、カメラ12が起動していない場合(S1にてNO)、処理は終了する。また、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれなかった場合(S2にてNO)、S2の処理が繰り返し行われる。(Processing flow of information terminal 1)
Next, the processing of the information terminal 1 will be described with reference to FIG. FIG. 3 is a flowchart illustrating an example of the flow of a process performed by the information terminal 1. For example, when it becomes possible to receive a touch operation on the peripheral area of the
本実施形態においては、カメラ12の制御について例を示した。一方で、本実施形態に示した構成をカメラ以外のデバイスの制御に適用してもよい。特に、直感的な操作である接触操作を適用できるようなデバイスの制御に適用することができる。
In the present embodiment, an example of the control of the
〔実施形態2〕
本発明の他の実施形態について、図4および図5に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。本実施形態に係る情報端末1bは、長押し操作およびダブルタップ操作を判定し、カメラ12の機能実行を制御する。[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as the members described in the above embodiment are denoted by the same reference numerals, and description thereof will be omitted. The
(情報端末1bの構成)
情報端末1bの構成について、図4を参照して説明する。図4は、情報端末1bの要部構成を示すブロック図である。図4に示すように、情報端末1bは、タッチパネル2、センサ11、カメラ12、制御部13b、記憶部14およびタイマ15bを備えている。タッチパネル2、センサ11、カメラ12および記憶部14については、実施形態1にて詳細を説明したため、ここでの説明は省略する。(Configuration of
The configuration of the
(制御部13b)
制御部13bは入力操作判定部131bおよびカメラ制御部132bを備えている。(
The
(入力操作判定部131b)
入力操作判定部131bは上述の入力操作判定部131の処理に加えて以下の処理を行う。入力操作判定部131bは複数の領域のうち2つ以上の領域に対する接触が第1の所定の時間の間継続したか否かを判定する。すなわち、入力操作判定部131bは長押し操作が行われたか否かを判定する。また、入力操作判定部131bは、複数の領域のうち2つ以上の領域に対して同時に接触があった時点から第2の所定の時間内に、複数の領域のうち2つ以上の領域に対する同時の接触が再び行なわれたか否かを判定する。すなわち、入力操作判定部131bはダブルタップ操作が行われたか否かを判定する。入力操作判定部131bは時間の経過を示すタイマ15bを参照し、上述の第1の所定の時間および第2の所定の時間の経過を判断する。より詳細に説明すると、入力操作判定部131bは、記憶部14に格納されているカメラ12の起動状態を示すカメラ状態情報141を参照し、カメラ12が起動しているか否かを判定する。カメラ12が起動している場合、入力操作判定部131は長押し操作が行われたか否かを判定する。また、カメラ12が起動していない場合、入力操作判定部131はダブルタップ操作が行われたか否かを判定する。長押し操作またはダブルタップ操作が行われた場合、入力操作判定部131bは長押し操作またはダブルタップ操作が行われた旨をカメラ制御部132bに送信する。(Input
The input
(カメラ制御部132b)
複数の領域のうち2つ以上の領域に対する接触が第1の所定の時間の間継続した(長押し操作が行われた)場合、カメラ制御部132bはカメラ12の機能実行を制御する。本実施形態では、特に、長押し操作が行なわれた場合、カメラ制御部132bはカメラ12(カメラ12による撮像)を終了させる。(
When the contact with two or more areas of the plurality of areas continues for the first predetermined time (the long press operation is performed), the
複数の領域のうち2つ以上の領域に対する同時の接触があった時点から第2の所定の時間内に、複数の領域のうち2つ以上の領域に対する同時の接触が行なわれた(ダブルタップ操作が行なわれた)場合、カメラ制御部132bはカメラ12の機能実行を制御する。本実施形態では、特に、ダブルタップ操作が行なわれた場合、カメラ制御部132bはカメラ12を起動させる(カメラ12による撮像を開始させる)。すなわち、カメラ制御部132bは、長押し操作またはダブルタップ操作に対応したカメラ12の機能の実行の制御を行う。
Within a second predetermined time from the point of simultaneous contact with two or more regions of the plurality of regions, simultaneous contact with two or more regions of the plurality of regions was performed (double tap operation Is performed), the
(情報端末1bの処理の流れ)
次に図5を参照して、情報端末1bの処理について説明する。図5は、情報端末1bが実行する処理の流れの一例を示すフローチャートである。S1およびS2の処理については実施形態1にて説明した処理と同様のため、ここでの詳細な説明は省略する。図5に示すように、カメラ12が起動しており(S1にてYES)、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合(S2にてYES)、S11に続く。入力操作判定部131bは2つ以上の領域に対する接触が第1の所定の時間の間継続したか否かを判定する(S11:接触判定ステップ)。すなわち、S2からS11では、入力操作判定部131bは長押し操作が行われたか否かを判定する。2つ以上の領域に対する接触が第1の所定の時間の間継続した場合(S11にてYES)、カメラ制御部132bはカメラ12による撮像を終了させ(S3)、処理は終了する。なお、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれなかった場合(S2にてNO)または2つ以上の領域に対する接触が第1の所定の時間の間継続しなかった場合(S11にてNO)、処理はS2に戻る。(Processing flow of
Next, the processing of the
また、カメラ12が起動していない場合(S1にてNO)、入力操作判定部131は複数の領域のうち2つ以上の領域に対して同時の接触が行なわれたか否かを判定する(S12:接触判定ステップ)。2つ以上の領域に対して同時の接触が行なわれた場合(S12にてYES)、入力操作判定部131bは、第2の所定の時間内に、複数の領域のうち2つ以上の領域に対する同時の接触が再び行なわれたか否かを判定する(S13:接触判定ステップ)。すなわち、S12からS13では、入力操作判定部131bはダブルタップ操作が行われたか否かを判定する。換言すると、S12からS13にて、入力操作判定部131bは一定時間以内において、2つ以上の領域に対して接触、非接触および接触の一連の操作が行なわれたか否かをセンサ11の検出値から判定する。第2の所定の時間内に、複数の領域のうち2つ以上の領域に対する同時の接触が再び行なわれた場合(S13にてYES)、カメラ制御部132bはカメラ12を起動(カメラ12による撮像を開始)させ(S14:機能実行制御ステップ)、処理は終了する。なお、2つ以上の領域に対して同時の接触が行なわれなかった場合(S12にてNO)または第2の所定の時間内に、複数の領域のうち2つ以上の領域に対する同時の接触が行なわれなかった場合(S13にてNO)、処理はS12に戻る。また、本処理は、カメラ12の周辺領域に対する接触操作を受付けない状態となった場合に終了してもよい。例えば、カメラ12を用いるアプリケーションが終了した場合に本処理が終了してもよい。また、S3およびS14の処理が終了すると、S1の処理に戻る構成としてもよい。また、本処理におけるS2からS11の処理と、S12からS13の処理とを入れ替えてもよい。すなわち、ダブルタップ操作が行なわれた場合にカメラ12を終了し、長押し操作が行なわれた場合にカメラ12を起動してもよい。
If the
本実施形態においては、カメラ12の起動および終了の制御について例を示した。他の例として、モバイルライトの点灯および消灯等に適用してもよい。特に、本実施形態の構成を直感的な操作である接触操作を適用できるようなデバイスの制御に適用することができる。
In the present embodiment, an example has been described with respect to control of activation and termination of the
〔実施形態3〕
本発明の他の実施形態について、図6および図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。本実施形態に係る情報端末1cは、マイク(機能実行部)16cの機能の実行を制御する。[Embodiment 3]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as the members described in the above embodiment are denoted by the same reference numerals, and description thereof will be omitted. The
(情報端末1cの構成)
情報端末1cの構成について、図6を参照して説明する。図6は、情報端末1cの要部構成を示すブロック図である。図6に示すように、情報端末1cは、タッチパネル2、センサ11、マイク16c、制御部13c、記憶部14cおよびタイマ15bを備えている。タッチパネル2およびタイマ15bについては、実施形態1および2にて詳細を説明したため、ここでの説明は省略する。また、実施形態1および2のセンサ11がカメラ12の設置位置から所定の範囲内に配置しているのに対し、センサ11cはマイク16cの設置位置から所定の範囲内に配置している。センサ11cのその他の構成はセンサ11と同様である。(Configuration of
The configuration of the
(マイク16c)
マイク16cは音声を集音する。マイク16cはマイク制御部(機能実行制御部)133cの指示を受信し、当該指示に従いミュート状態となる。また、実施形態1にて説明したカメラ12と同様に、マイク16cは図2の(a)に示す切欠きF1内に設置されていてもよい。(
The
(制御部13c)
制御部13cは、入力操作判定部131cおよびマイク制御部133cを備えている。(
The
(入力操作判定部131c)
入力操作判定部131cは、記憶部14に格納されているマイク16cの機能が有効であるか否か(ミュート状態であるか否か)を示すマイク状態情報142cを参照し、マイク16cが有効であるか否かを判定する。マイク16cの機能が有効である(集音を行っている)場合、入力操作判定部131cは、実施形態2の入力操作判定部131bと同様に、接触操作による長押し操作が行われたか否かを判定する。入力操作判定部131cは長押し操作が行われた場合、長押し操作が行われた旨をマイク制御部133cに送信する。(Input
The input
(マイク制御部133c)
マイク制御部133cは、長押し操作が行なわれた場合、マイク16cの機能実行を制御する。詳細には、長押し操作が行なわれた場合、マイク制御部133cはマイク16cをミュートにする。また、マイク制御部133cはマイク16cをミュートにすると、記憶部14cに格納されているマイク状態情報142cを更新する。(
When a long press operation is performed, the
(情報端末1cの処理の流れ)
次に図7を参照して、情報端末1cの処理について説明する。図7は、情報端末1cが実行する処理の流れの一例を示すフローチャートである。例えば、マイク16cの周辺領域に対する接触操作の受付けが可能となった場合、情報端末1cは当該処理を開始してもよい。例えば、マイク16cを用いるアプリケーションが起動した場合に、情報端末1cは当該処理を開始してもよい。図7に示すように、入力操作判定部131cはマイク16cの機能が有効であるか否かを判定する(S21)。マイク16cの機能が有効である場合(S21にてYES)、入力操作判定部131cは複数の領域のうち2つ以上の領域に対して同時の接触が行なわれたか否かを判定する(S22:接触判定ステップ)。複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合(S22にてYES)、入力操作判定部131cは2つ以上の領域に対する接触が第1の所定の時間の間継続したか否かを判定する(S23:接触判定ステップ)。すなわち、S22からS23では、入力操作判定部131cは長押し操作が行われたか否かを判定する。2つ以上の領域に対する接触が第1の所定の時間の間継続した場合(S23にてYES)、マイク制御部133cはマイク16cの機能を無効(ミュート)し(S24:機能実行制御ステップ)、処理は終了する。また、本処理は、マイク16cの周辺領域に対する接触操作を受付けない状態となった場合に終了してもよい。例えば、マイク16cを用いるアプリケーションが終了した場合に本処理が終了してもよい。また、S21からS24の処理が終了すると、S21の処理に戻る構成としてもよい。(Processing flow of
Next, the processing of the
なお、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれなかった場合(S22にてNO)または2つ以上の領域に対する接触が第1の所定の時間の間継続しなかった場合(S23にてNO)、処理はS22に戻る。 In addition, when the simultaneous contact has not been performed on two or more regions of the plurality of regions (NO in S22), or the contact on the two or more regions has not been continued for the first predetermined time. If (NO in S23), the process returns to S22.
本実施形態においては、マイク16cのミュートの制御について例を示した。他の例として、スピーカの音量をOFFにする制御に適用してもよい。特に本実施形態の構成を直感的な操作である接触操作を適用できるようなデバイスの制御に適用することができる。
In the present embodiment, an example has been described regarding the control of the mute of the
〔ソフトウェアによる実現例〕
情報端末1、1b、1cの制御ブロック(特に入力操作判定部131、入力操作判定部131b、入力操作判定部131c、カメラ制御部132、カメラ制御部132bおよびマイク制御部132c)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。[Example of software implementation]
The control blocks of the
後者の場合、情報端末1、1b、1cは、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the
〔まとめ〕
本発明の態様1に係る電子機器(情報端末1、1b、1c)は、自機器に備えられた機能を実行する機能実行部(カメラ12、マイク16c)と、上記機能実行部から所定の範囲内に配置されたユーザの接触を検出するセンサ(11)と、上記センサの検出値から、上記所定の範囲内に設定された複数の領域に対する上記接触を判定する接触判定部(入力操作判定部131、131b、131c)と、上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御部(カメラ制御部132、カメラ制御部132b、マイク制御部132c)とを備えている。[Summary]
An electronic device (
上記の構成によれば、機能実行部から所定の範囲内に設定された複数の領域に対する接触に応じて機能実行部の機能実行を制御する。換言すると、所定の範囲内に設定された1つの領域のみの接触では、機能実行制御部は機能実行を制御しない。そのため、ユーザが機能実行の制御を意図せずに所定の範囲内に接触した場合においても、所定の範囲内の複数の領域に対して接触していなければ機能実行は制御されない。従って、ユーザが機能実行の制御を意図せずに所定の範囲内を接触することによって生じる誤操作を低減することができる。 According to the above configuration, the function execution of the function execution unit is controlled in accordance with the contact with the plurality of regions set within a predetermined range from the function execution unit. In other words, the function execution control unit does not control the execution of the function when only one area set within the predetermined range is touched. Therefore, even when the user touches a predetermined range without intending to control the function execution, the function execution is not controlled unless the user touches a plurality of regions within the predetermined range. Therefore, it is possible to reduce erroneous operations caused by the user touching a predetermined range without intending to control the function execution.
本発明の態様2に係る電子機器は、上記態様1において、上記電子機器は、一部に切欠きを含む形状のタッチパネル(2)を備えており、上記機能実行部は上記切欠き(F1)内に設置されており、上記センサは上記タッチパネルの一部の領域によって構成されており、当該領域は上記切欠きを形成する上記タッチパネルの縁から所定の範囲内の領域であってもよい。
An electronic device according to an
上記の構成によれば、タッチパネルとセンサとを共通化できる。また、タッチパネルの切欠き内に機能実行部を備えている構成においては、ユーザが機能実行部から所定の範囲内を誤って接触する機会が多くなると考えられる。上記の構成によれば、所定の範囲内に設定された1つの領域のみの接触では、機能実行制御部は機能実行を制御しない。そのため、ユーザが機能実行部から所定の範囲内を誤って接触する機会が多くなると考えられる切欠き内に機能実行部を備えている構成においても、ユーザが機能実行の制御を意図せずに所定の範囲内を接触した場合の誤操作を低減することができる。 According to the above configuration, the touch panel and the sensor can be shared. Further, in the configuration in which the function execution unit is provided in the notch of the touch panel, it is considered that the chance that the user erroneously contacts a predetermined range from the function execution unit is increased. According to the above configuration, the function execution control unit does not control the execution of the function when only one area set within the predetermined range is touched. For this reason, even in a configuration in which the function execution unit is provided in a notch in which the user is likely to accidentally touch the predetermined range from the function execution unit, the user does not intend to control the function execution. Erroneous operation when contact is made within the range of.
本発明の態様3に係る電子機器は、上記態様1または2において、上記複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合、上記機能実行制御部は上記機能実行部の機能実行を制御してもよい。 In the electronic device according to the third aspect of the present invention, in the first or second aspect, when two or more areas of the plurality of areas are simultaneously touched, the function execution control unit may execute the function execution. The function execution of the unit may be controlled.
上記の構成によれば、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合に、機能実行部による機能実行が制御される。換言すると、複数の領域のうち1つの領域のみに接触が行なわれた場合、機能実行部による機能実行は制御されない。また、2つ以上の領域に接触が行なわれたとしても該接触が同時でない場合、機能実行部による機能実行は制御されない。そのため、ユーザが機能実行の制御を意図せずに所定の範囲内を接触した場合の誤操作を低減することができる。 According to the above configuration, when simultaneous contact is made to two or more of the plurality of regions, the function execution by the function execution unit is controlled. In other words, when only one of the plurality of areas is touched, the function execution by the function execution unit is not controlled. Even if two or more areas are touched, if the touches are not simultaneous, the function execution by the function execution unit is not controlled. For this reason, it is possible to reduce erroneous operations when the user touches within a predetermined range without intending to control the function execution.
本発明の態様4に係る電子機器(情報端末1b、情報端末1c)は、上記態様3において、上記接触が第1の所定の時間の間継続した場合、上記機能実行制御部(カメラ制御部132b、マイク制御部132c)は上記機能実行部の機能実行を制御してもよい。上記の構成によれば、接触が第1の所定の時間の間継続した場合、機能実行部による機能実行が制御される。換言すると、接触が所定の時間の間継続しなかった場合、機能実行部による機能実行は制御されない。そのため、ユーザが機能実行の制御を意図せずに所定の範囲内を接触した場合の誤操作を低減することができる。
The electronic device (
本発明の態様5に係る電子機器(情報端末1b)は、上記態様3において、上記複数の領域のうち2つ以上の領域に対する同時の接触があった時点から第2の所定の時間内に上記複数の領域のうち2つ以上の領域に対する同時の接触が行なわれた場合、上記機能実行制御部(カメラ制御部132b)は上記機能実行部の機能実行を制御してもよい。
The electronic device (
上記の構成によれば、複数の領域のうち2つ以上の領域に対する同時の接触があった時点から第2の所定の時間内に複数の領域のうち2つ以上の領域に対する同時の接触が行なわれた場合、機能実行制御部は機能実行部の機能実行を制御する。換言すると、複数の領域のうち2つ以上の領域に対する同時の接触から第2の所定の時間内に複数の領域のうち2つ以上の領域に対する同時の接触がない場合、機能実行部による機能実行は制御されない。そのため、ユーザが機能実行の制御を意図せずに所定の範囲内を接触した場合の誤操作を低減することができる。 According to the above configuration, simultaneous contact with two or more regions of the plurality of regions is performed within the second predetermined time from the point of simultaneous contact with two or more regions of the plurality of regions. The function execution control unit controls the execution of the function by the function execution unit. In other words, if there is no simultaneous contact with two or more regions among the plurality of regions within the second predetermined time after simultaneous contact with two or more regions among the plurality of regions, the function execution unit executes the function. Is not controlled. For this reason, it is possible to reduce erroneous operations when the user touches within a predetermined range without intending to control the function execution.
本発明の態様6に係る電子機器の制御方法は、自機器に備えられた機能を実行する機能実行部から所定の範囲内に配置された接触を検出するセンサの検出値から、上記所定の範囲内に設定された複数の領域に対する上記接触を判定する接触判定ステップ(S2、S11、S12、S13、S22、S23)と、上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御ステップ(S3、S14、S24)と、を含む。上記の構成によれば、上記態様1と同様の効果を奏することができる。 The control method for an electronic device according to the sixth aspect of the present invention may be configured such that the predetermined range is determined based on a detection value of a sensor that detects a contact arranged within a predetermined range from a function execution unit that executes a function provided in the own device. A contact determination step (S2, S11, S12, S13, S22, S23) for determining the contact with a plurality of regions set in the function execution unit in response to the contact with the plurality of regions. (S3, S14, S24). According to the above configuration, the same effects as in the first aspect can be obtained.
本発明の各態様に係る電子機器は、コンピュータによって実現してもよく、この場合には、コンピュータを上記電子機器が備える各部(ソフトウェア要素)として動作させることにより上記電子機器をコンピュータにて実現させる電子機器の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The electronic device according to each aspect of the present invention may be realized by a computer. In this case, the computer is realized by operating the computer as each unit (software element) included in the electronic device. A control program for an electronic device and a computer-readable recording medium that records the program are also included in the scope of the present invention.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the embodiments described above, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.
1、1b、1c 情報端末(電子機器)
2 タッチパネル
11 センサ
12 カメラ(機能実行部)
16c マイク(機能実行部)
131、131b、131c 入力操作判定部(接触判定部)
132、132b カメラ制御部(機能実行制御部)
132c マイク制御部(機能実行制御部)
F1 切欠き
S2、S11、S12、S13、S22、S23 接触判定ステップ
S3、S14、S24 機能実行制御ステップ1, 1b, 1c Information terminal (electronic equipment)
2
16c microphone (function execution unit)
131, 131b, 131c Input operation determination unit (contact determination unit)
132, 132b Camera control unit (function execution control unit)
132c Microphone control unit (function execution control unit)
F1 Notch S2, S11, S12, S13, S22, S23 Contact determination step S3, S14, S24 Function execution control step
Claims (7)
上記機能実行部から所定の範囲内に配置されたユーザの接触を検出するセンサと、
上記センサの検出値から、上記所定の範囲内に設定された複数の領域に対する上記接触を判定する接触判定部と、
上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御部と
を備えていることを特徴とする電子機器。A function execution unit that executes a function provided in the own device;
A sensor that detects contact of a user arranged within a predetermined range from the function execution unit,
From the detection value of the sensor, a contact determination unit that determines the contact to a plurality of regions set within the predetermined range,
An electronic device, comprising: a function execution control unit that controls execution of a function of the function execution unit according to the contact with the plurality of regions.
上記機能実行部は上記切欠き内に設置されており、
上記センサは上記タッチパネルの一部の領域によって構成されており、当該領域は上記切欠きを形成する上記タッチパネルの縁から所定の範囲内の領域であることを特徴とする請求項1に記載の電子機器。The electronic device includes a touch panel having a shape including a notch in a part thereof,
The function execution unit is installed in the notch,
2. The electronic device according to claim 1, wherein the sensor is configured by a partial area of the touch panel, and the area is an area within a predetermined range from an edge of the touch panel forming the cutout. 3. machine.
上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御ステップと、
を含むことを特徴とする電子機器の制御方法。From the detection value of a sensor that detects a contact arranged within a predetermined range from a function execution unit that executes a function provided in the own device, the contact with respect to a plurality of areas set within the predetermined range is determined. A contact determination step;
A function execution control step of controlling a function execution of the function execution unit in accordance with the contact with the plurality of regions;
A method for controlling an electronic device, comprising:
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017126669 | 2017-06-28 | ||
JP2017126669 | 2017-06-28 | ||
PCT/JP2018/015161 WO2019003571A1 (en) | 2017-06-28 | 2018-04-11 | Electronic device, method for controlling electronic device, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019003571A1 true JPWO2019003571A1 (en) | 2020-04-02 |
JP6928652B2 JP6928652B2 (en) | 2021-09-01 |
Family
ID=64742195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019526168A Active JP6928652B2 (en) | 2017-06-28 | 2018-04-11 | Electronic devices, control methods and programs for electronic devices |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6928652B2 (en) |
WO (1) | WO2019003571A1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110740265B (en) * | 2019-10-31 | 2021-03-12 | 维沃移动通信有限公司 | Image processing method and terminal equipment |
CN111163260B (en) * | 2019-12-20 | 2021-11-19 | 维沃移动通信有限公司 | Camera starting method and electronic equipment |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006092321A (en) * | 2004-09-24 | 2006-04-06 | Toshiba Corp | Electronic equipment and touchpad device |
JP2008225648A (en) * | 2007-03-09 | 2008-09-25 | Alps Electric Co Ltd | Power source controller and electronic equipment equipped with the same, and method for starting electronic equipment |
JP2011034579A (en) * | 2010-09-29 | 2011-02-17 | Toshiba Corp | Electronic equipment and input control method |
WO2014129286A1 (en) * | 2013-02-19 | 2014-08-28 | Necカシオモバイルコミュニケーションズ株式会社 | Information processing terminal, screen control method, and screen control program |
JP2015022489A (en) * | 2013-07-18 | 2015-02-02 | 富士ゼロックス株式会社 | Information processor and program |
JP2015230693A (en) * | 2014-06-06 | 2015-12-21 | キヤノン株式会社 | Information processing device, input method, computer program, and recording medium |
JP2016539359A (en) * | 2013-12-25 | 2016-12-15 | ホアウェイ・デバイス・カンパニー・リミテッド | Mobile terminal and method for starting shooting on a mobile terminal |
JP2016224834A (en) * | 2015-06-03 | 2016-12-28 | キヤノン株式会社 | Electronic device and control method thereof |
EP3109727A2 (en) * | 2015-06-25 | 2016-12-28 | Xiaomi Inc. | A method and apparatus for controlling a display, and a mobile terminal |
JP2017058840A (en) * | 2015-09-15 | 2017-03-23 | セイコーエプソン株式会社 | Display system, display device control method, and program |
-
2018
- 2018-04-11 WO PCT/JP2018/015161 patent/WO2019003571A1/en active Application Filing
- 2018-04-11 JP JP2019526168A patent/JP6928652B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006092321A (en) * | 2004-09-24 | 2006-04-06 | Toshiba Corp | Electronic equipment and touchpad device |
JP2008225648A (en) * | 2007-03-09 | 2008-09-25 | Alps Electric Co Ltd | Power source controller and electronic equipment equipped with the same, and method for starting electronic equipment |
JP2011034579A (en) * | 2010-09-29 | 2011-02-17 | Toshiba Corp | Electronic equipment and input control method |
WO2014129286A1 (en) * | 2013-02-19 | 2014-08-28 | Necカシオモバイルコミュニケーションズ株式会社 | Information processing terminal, screen control method, and screen control program |
JP2015022489A (en) * | 2013-07-18 | 2015-02-02 | 富士ゼロックス株式会社 | Information processor and program |
JP2016539359A (en) * | 2013-12-25 | 2016-12-15 | ホアウェイ・デバイス・カンパニー・リミテッド | Mobile terminal and method for starting shooting on a mobile terminal |
JP2015230693A (en) * | 2014-06-06 | 2015-12-21 | キヤノン株式会社 | Information processing device, input method, computer program, and recording medium |
JP2016224834A (en) * | 2015-06-03 | 2016-12-28 | キヤノン株式会社 | Electronic device and control method thereof |
EP3109727A2 (en) * | 2015-06-25 | 2016-12-28 | Xiaomi Inc. | A method and apparatus for controlling a display, and a mobile terminal |
JP2017058840A (en) * | 2015-09-15 | 2017-03-23 | セイコーエプソン株式会社 | Display system, display device control method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2019003571A1 (en) | 2019-01-03 |
JP6928652B2 (en) | 2021-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5105127B2 (en) | Portable terminal, its key operation control method and program | |
WO2018107900A1 (en) | Method and device for preventing mistouch on touch screen, mobile terminal, and storage medium | |
WO2018107898A1 (en) | Method and device for preventing false triggering of touch button, terminal and storage medium | |
US20130285956A1 (en) | Mobile device provided with display function, storage medium, and method for controlling mobile device provided with display function | |
CN107357458B (en) | Touch key response method and device, storage medium and mobile terminal | |
CN106873834B (en) | Method and device for identifying triggering of key and mobile terminal | |
WO2014026633A1 (en) | Method for preventing misoperation of touchscreen, touchscreen and mobile terminal | |
JP2011086038A (en) | Electronic apparatus and program | |
KR20100081575A (en) | Apparatus and method for controlling on/off of liquid crystal display in a portable terminal | |
JP6096854B1 (en) | Electronic device and method of operating electronic device | |
JP6229069B2 (en) | Mobile terminal, how to handle virtual buttons | |
CN106919283A (en) | The touch event processing method of terminal, device and terminal | |
JP6928652B2 (en) | Electronic devices, control methods and programs for electronic devices | |
KR101952342B1 (en) | Off-center sensor target region | |
WO2019072169A1 (en) | Detection method and device for preventing accidental touch and terminal | |
WO2011105061A1 (en) | Portable terminal, input control program, and input control method | |
WO2011058733A1 (en) | Mobile communication terminal, input control program and input control method | |
JP6734152B2 (en) | Electronic device, control device, control program, and operating method of electronic device | |
JP2018014111A (en) | Electronic apparatus | |
CN113485632A (en) | Touch control method for folding screen, terminal device and computer readable storage medium | |
CN111580740A (en) | Intelligent device control method and device, intelligent device and storage medium | |
CN107407982B (en) | Input method of touch screen and terminal | |
JP2017142782A (en) | Electronic device, calibration method, and program | |
JP6073511B1 (en) | Electronic device, calibration method, and program | |
TW202134840A (en) | Touch system, touch device and method for reducing false point |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210608 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210702 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210713 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210806 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6928652 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |