JPWO2019003571A1 - Electronic device, control method and program for electronic device - Google Patents

Electronic device, control method and program for electronic device Download PDF

Info

Publication number
JPWO2019003571A1
JPWO2019003571A1 JP2019526168A JP2019526168A JPWO2019003571A1 JP WO2019003571 A1 JPWO2019003571 A1 JP WO2019003571A1 JP 2019526168 A JP2019526168 A JP 2019526168A JP 2019526168 A JP2019526168 A JP 2019526168A JP WO2019003571 A1 JPWO2019003571 A1 JP WO2019003571A1
Authority
JP
Japan
Prior art keywords
contact
function execution
camera
function
regions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019526168A
Other languages
Japanese (ja)
Other versions
JP6928652B2 (en
Inventor
前川 哲也
哲也 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of JPWO2019003571A1 publication Critical patent/JPWO2019003571A1/en
Application granted granted Critical
Publication of JP6928652B2 publication Critical patent/JP6928652B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)

Abstract

ユーザの誤った接触を検出することを原因とする誤操作を低減する。機能を実行するカメラ(12)と、上記カメラから所定の範囲内に配置された接触を検出するセンサ(11)と、上記所定の範囲内に設定された複数の領域に対する上記接触に応じて、上記カメラの機能実行を制御するカメラ制御部(132)とを備えている電子機器。An erroneous operation caused by detecting an erroneous touch by the user is reduced. A camera (12) that executes a function, a sensor (11) that detects a contact arranged in a predetermined range from the camera, and a contact to a plurality of areas set in the predetermined range according to the contact. An electronic device comprising: a camera control section (132) for controlling the function execution of the camera.

Description

本発明は自機器に備えられた機能を実行するデバイスを備えている電子機器に関する。   The present invention relates to an electronic device including a device that executes a function provided in the device.

これまでに、情報端末が備えているデバイスの周辺にセンサを設け、デバイスの機能を実行するにあたり該センサの検出値を用いる技術が開発されている。例えば、特許文献1には、カメラの周囲において指の接触が検出された場合に、撮影画像に指が写り込んでいることを示す注意喚起を表示する携帯端末が開示されている。   Hitherto, a technology has been developed in which a sensor is provided around a device provided in an information terminal and a detection value of the sensor is used when executing a function of the device. For example, Patent Literature 1 discloses a mobile terminal that displays a reminder indicating that a finger is included in a captured image when a finger touch is detected around a camera.

日本国公開特許公報「特開2011−217101号公報(2011年10月27日公開)」Japanese Unexamined Patent Publication “JP-A-2011-217101 (published on October 27, 2011)”

しかしながら、特許文献1に開示されている指の接触を検出する構成では、ユーザが単にカメラのレンズの周囲に接触しただけで、指の接触が検出されてしまう。   However, in the configuration for detecting finger contact disclosed in Patent Literature 1, finger contact is detected simply by the user touching the periphery of the camera lens.

そのため、例えば、情報端末等に備わっているデバイスの周辺に対してユーザが接触することによって該デバイスに対する操作を行う構成に、特許文献1に開示されている接触を検出する構成を用いると以下のような問題が生じる。すなわち、ユーザが誤ってデバイス周辺に接触すると、該デバイスに対してユーザが意図していない操作が生じてしまうという問題が生じる。   Therefore, for example, when the configuration for detecting a contact disclosed in Patent Literature 1 is used as the configuration for performing an operation on a device provided in an information terminal or the like by a user touching the periphery of the device, the following configuration is used. Such a problem arises. That is, if the user accidentally touches the periphery of the device, there is a problem that an operation not intended by the user is performed on the device.

本発明は、前記の問題点に鑑みてなされたものであり、本発明の一態様は、ユーザの誤った接触を検出することを原因とする誤操作を低減することができる情報端末を実現することを目的とする。   The present invention has been made in view of the above-described problems, and an aspect of the present invention is to provide an information terminal capable of reducing erroneous operations caused by detecting an erroneous contact of a user. With the goal.

上記の課題を解決するために、本発明の一態様に係る電子機器は、自機器に備えられた機能を実行する機能実行部と、上記機能実行部から所定の範囲内に配置されたユーザの接触を検出するセンサと、上記センサの検出値から、上記所定の範囲内に設定された複数の領域に対する上記接触を判定する接触判定部と、上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御部とを備えている。   In order to solve the above-described problem, an electronic device according to one embodiment of the present invention includes a function execution unit that executes a function provided in the own device, and a user who is disposed within a predetermined range from the function execution unit. A sensor that detects a contact, a contact determination unit that determines the contact with respect to a plurality of regions set within the predetermined range from a detection value of the sensor, and a function that responds to the contact with the plurality of regions. A function execution control unit that controls execution of the function of the execution unit.

上記の課題を解決するために、本発明の一態様に係る電子機器の制御方法は、自機器に備えられた機能を実行する機能実行部から所定の範囲内に配置された接触を検出するセンサの検出値から、上記所定の範囲内に設定された複数の領域に対する上記接触を判定する接触判定ステップと、上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御ステップと、を含む。   In order to solve the above problem, a control method of an electronic device according to one embodiment of the present invention includes a sensor that detects a contact arranged within a predetermined range from a function execution unit that executes a function provided in the own device. A contact determining step of determining the contact with respect to a plurality of regions set within the predetermined range from the detected value, and a function of controlling execution of a function of the function executing unit in accordance with the contact with the plurality of regions. Execution control step.

本発明の一態様によれば、接触操作において、ユーザが意図せずに接触した場合の誤操作を低減するという効果を奏する。   Advantageous Effects of Invention According to one aspect of the present invention, in a contact operation, there is an effect that an erroneous operation when the user makes an unintended contact is reduced.

本実施形態1に係る情報端末の要部構成を示すブロック図である。FIG. 2 is a block diagram illustrating a main configuration of the information terminal according to the first embodiment. (a)および(b)は本実施形態1に係る情報端末の概要を示す図である。2A and 2B are diagrams illustrating an outline of the information terminal according to the first embodiment. 本実施形態1に係る情報端末が実行する処理の流れの一例を示すフローチャートである。5 is a flowchart illustrating an example of a flow of a process executed by the information terminal according to the first embodiment. 本実施形態2に係る情報端末の要部構成を示すブロック図である。FIG. 6 is a block diagram illustrating a main configuration of an information terminal according to a second embodiment. 本実施形態2に係る情報端末が実行する処理の流れの一例を示すフローチャートである。9 is a flowchart illustrating an example of a flow of a process executed by the information terminal according to the second embodiment. 本実施形態3に係る情報端末の要部構成を示すブロック図である。FIG. 11 is a block diagram illustrating a main configuration of an information terminal according to a third embodiment. 本実施形態3に係る情報端末が実行する処理の流れの一例を示すフローチャートである。15 is a flowchart illustrating an example of a flow of a process executed by the information terminal according to the third embodiment. 参考の形態に係る情報端末の概要を示す図である。It is a figure showing the outline of the information terminal concerning a reference form.

〔実施形態1〕
以下、本発明の実施の形態について、図1から図3および図8を参照して詳細に説明する。
[Embodiment 1]
Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 1 to 3 and FIG.

(情報端末1の概要)
まず、本実施形態に係る情報端末(電子機器)1の概要について、図2および図8を参照して説明する。図2は情報端末1の概要を示す図である。また、図8は参考の形態に係る情報端末100の概要を示す図である。はじめに、図8を参照して参考の形態について説明する。図8に示すように、情報端末100はタッチパネル102、センサ111およびカメラ112を備えている。タッチパネル102の形状は、切欠きF100を含む形状である。センサ111およびカメラ112は切欠きF100内に配置している。センサ111はユーザの指の接触を検出するセンサであり、カメラ112を囲むように配置されている。図8に示す×印は、カメラ112の周辺領域におけるユーザの接触点を示している。センサ111にてカメラ112の周辺領域におけるユーザの接触を検出した場合、情報端末100はカメラ112による撮像を終了する。情報端末100は、カメラ112の周辺領域の接触点の数、接触した領域等に関わらず、接触を検出するとカメラ112の撮像を終了する。
(Overview of Information Terminal 1)
First, an outline of the information terminal (electronic device) 1 according to the present embodiment will be described with reference to FIGS. FIG. 2 is a diagram showing an outline of the information terminal 1. FIG. 8 is a diagram illustrating an outline of the information terminal 100 according to the reference embodiment. First, a reference embodiment will be described with reference to FIG. As shown in FIG. 8, the information terminal 100 includes a touch panel 102, a sensor 111, and a camera 112. The shape of the touch panel 102 is a shape including the notch F100. The sensor 111 and the camera 112 are arranged in the notch F100. The sensor 111 is a sensor that detects contact of a user's finger, and is arranged so as to surround the camera 112. The crosses shown in FIG. 8 indicate the contact points of the user in the peripheral area of the camera 112. When the sensor 111 detects the user's contact in the area around the camera 112, the information terminal 100 ends the imaging by the camera 112. The information terminal 100 terminates the imaging by the camera 112 upon detecting the contact irrespective of the number of contact points in the peripheral area of the camera 112, the contact area, and the like.

次に、図2を参照して本実施形態の情報端末1の概要について説明する。図2の(a)および(b)は情報端末1の概要を示す図である。   Next, an outline of the information terminal 1 of the present embodiment will be described with reference to FIG. FIGS. 2A and 2B are diagrams showing an outline of the information terminal 1.

図2に示すように、情報端末1はタッチパネル2、接触を検出するセンサ11およびカメラ(機能実行部)12を備えている。情報端末1は、例えば、タブレット型端末、スマートフォン等であってもよい。タッチパネル2の形状は、欠きF1を含む形状である。カメラ12は切欠きF1内に配置している。図2に示す例では、タッチパネル2の一部の領域がセンサ11として機能する(センサ11はタッチパネル2の一部の領域によって構成されている)。詳細には、切欠きF1を形成するタッチパネル2の縁から所定の範囲内の領域のタッチパネル2がセンサ11として機能する。換言すると、センサ11はカメラ12から所定の範囲内に配置されている。図2の(a)および(b)に示すように、センサ11が配置されている領域には、領域R1、領域R2および領域R3が設定されている。図2に示す例では、タッチパネル2の切欠きF1はコの字の形状である。タッチパネル2には、コの字の各辺を形成する縁から所定の範囲内の領域に、領域R1、領域R2および領域R3が設定されている。   As shown in FIG. 2, the information terminal 1 includes a touch panel 2, a sensor 11 for detecting contact, and a camera (function executing unit) 12. The information terminal 1 may be, for example, a tablet terminal, a smartphone, or the like. The shape of the touch panel 2 is a shape including the notch F1. The camera 12 is arranged in the notch F1. In the example illustrated in FIG. 2, a partial area of the touch panel 2 functions as the sensor 11 (the sensor 11 includes a partial area of the touch panel 2). Specifically, the touch panel 2 in a region within a predetermined range from the edge of the touch panel 2 forming the cutout F1 functions as the sensor 11. In other words, the sensor 11 is arranged within a predetermined range from the camera 12. As shown in FIGS. 2A and 2B, a region R1, a region R2, and a region R3 are set in a region where the sensor 11 is arranged. In the example shown in FIG. 2, the notch F1 of the touch panel 2 has a U-shape. In the touch panel 2, a region R1, a region R2, and a region R3 are set in a region within a predetermined range from an edge forming each side of the U-shape.

図2の(a)に示すように、情報端末1においては、例えば、ユーザの指Uが領域R2のみ接触した場合にはカメラ12による撮像を終了しない。一方で、図2の(b)に示すように、ユーザの指Uが領域R1、領域R2および領域R3にて接触した場合、情報端末1はカメラ12による撮像を終了する。例えば、カメラ12をユーザが手で覆うとカメラ12による撮像が終了する。なお、ユーザの指Uが領域R1、領域R2および領域R3のうち2つ以上の領域に接触した場合に、情報端末1はカメラ12による撮像を終了する構成としてもよい。すなわち、情報端末1は、センサ11の検出値から、所定の範囲内に設定された複数の領域に対する接触を判定し、複数の領域に対する接触に応じて、カメラ12の機能実行を制御する。なお、上述の例においては、領域R1、領域R2および領域R3を切欠きF1を形成するタッチパネル2の辺毎に設定したが、該領域の設定は任意に行うことができる。また、情報端末1は、タッチパネル2がアクティブであるとき(通常モード:表示画面が表示されているとき)に、カメラ12の機能実行を制御するように動作してもよい。また、情報端末1は、タッチパネル2がセーブモードのとき(表示画面が表示されていないとき)に、カメラ12の機能実行を制御するように動作してもよい。   As illustrated in FIG. 2A, in the information terminal 1, for example, when the user's finger U contacts only the region R <b> 2, the imaging by the camera 12 does not end. On the other hand, as shown in FIG. 2B, when the user's finger U touches the area R1, the area R2, and the area R3, the information terminal 1 ends the imaging by the camera 12. For example, when the user covers the camera 12 with his or her hand, the imaging by the camera 12 ends. Note that, when the user's finger U contacts two or more of the region R1, the region R2, and the region R3, the information terminal 1 may be configured to end the imaging by the camera 12. That is, the information terminal 1 determines contact with a plurality of regions set within a predetermined range from the detection value of the sensor 11, and controls the function execution of the camera 12 in accordance with the contact with the plurality of regions. In the above-described example, the region R1, the region R2, and the region R3 are set for each side of the touch panel 2 that forms the cutout F1, but the region can be set arbitrarily. Further, the information terminal 1 may operate to control the function execution of the camera 12 when the touch panel 2 is active (normal mode: when the display screen is displayed). Further, the information terminal 1 may operate to control the function execution of the camera 12 when the touch panel 2 is in the save mode (when the display screen is not displayed).

上記の構成によれば、カメラ12から所定の範囲内に設定された複数の領域である領域R1、領域R2および領域R3に対する接触に応じてカメラ12の機能実行を制御する。換言すると、所定の範囲内に設定された1つの領域のみの接触では、情報端末1はカメラ12の機能実行を制御しない。そのため、ユーザがカメラ12の機能実行の制御を意図せずにセンサ11が配置している所定の範囲内に接触した場合においても、領域R1、領域R2および領域R3のうち複数の領域に対して接触していなければカメラ12の機能実行の制御は行われない。従って、ユーザがカメラ12の機能実行の制御を意図せずにセンサ11が配置している範囲内を接触することによって生じる誤操作を低減することができる。   According to the above configuration, the function execution of the camera 12 is controlled in accordance with the contact with the regions R1, R2, and R3, which are a plurality of regions set within a predetermined range from the camera 12. In other words, the information terminal 1 does not control the execution of the function of the camera 12 by touching only one area set within the predetermined range. Therefore, even when the user touches the predetermined range where the sensor 11 is arranged without intending to control the execution of the function of the camera 12, even if the user touches a plurality of regions among the region R1, the region R2, and the region R3. If there is no contact, control of the function execution of the camera 12 is not performed. Therefore, it is possible to reduce erroneous operations caused by the user touching the area where the sensor 11 is arranged without intending to control the function of the camera 12.

(情報端末1の構成)
次に、情報端末1の構成について、図1を参照して説明する。図1は、情報端末1の要部構成を示すブロック図である。図1に示すように、情報端末1は、タッチパネル2、センサ11、カメラ12、制御部13および記憶部14を備えている。
(Configuration of Information Terminal 1)
Next, the configuration of the information terminal 1 will be described with reference to FIG. FIG. 1 is a block diagram illustrating a main configuration of the information terminal 1. As shown in FIG. 1, the information terminal 1 includes a touch panel 2, a sensor 11, a camera 12, a control unit 13, and a storage unit 14.

(タッチパネル2)
タッチパネル2は、表示画面に対するユーザの接触操作を受け付ける。特に本実施形態においては、タッチパネル2は形状を自由に設計することが可能なフリーフォームディスプレイである。
(Touch panel 2)
The touch panel 2 receives a user's touch operation on the display screen. In particular, in the present embodiment, the touch panel 2 is a free-form display whose shape can be freely designed.

タッチパネル2は、例えば、表示デバイスとタッチパネルデバイスとを一体としたものである。ユーザは、表示部20を指で触ることによって、表示部20に表示されているアイコン等の操作、および画面のスクロール等を行うことができる。タッチパネル2の形状は、図2の(a)および(b)に示すように、切欠きF1を含む形状である。   The touch panel 2 integrates, for example, a display device and a touch panel device. By touching the display unit 20 with a finger, the user can operate icons and the like displayed on the display unit 20, scroll the screen, and the like. As shown in FIGS. 2A and 2B, the shape of the touch panel 2 includes a notch F1.

切欠きF1は、タッチパネル2の上部中央に形成されており、タッチパネル2の表示面の一部を切り欠くように形成されている。なお、図2の(a)および(b)では、切欠きF1は、タッチパネル2の上部中央に形成されているが、切欠きF1がタッチパネル2の外縁の少なくとも1辺に形成されていれば、切欠きF1が形成される場所は特に限定されない。   The notch F1 is formed at the upper center of the touch panel 2 and is formed so as to cut out a part of the display surface of the touch panel 2. 2A and 2B, the notch F1 is formed in the upper center of the touch panel 2, but if the notch F1 is formed on at least one side of the outer edge of the touch panel 2, The place where the notch F1 is formed is not particularly limited.

例えば、切欠きF1は、タッチパネル2の上部左端に形成されてもよく、タッチパネル2の上部右端に形成されてもよいし、タッチパネル2の下部、左縁、または右縁に形成されていてもよい。また、切欠きF1は、タッチパネル2の上部中央から左または右にずれて形成されていてもよい。さらに、タッチパネル2に形成される切欠きF1の数は特に限定されない。例えば、切欠きF1は、タッチパネル2の上部に2つ以上形成されてもよい。切欠きF1の形状は、図2の(a)および(b)ではコの字(切欠きの形状が正方形)の形状になっているが、特に限定されない。例えば、切欠きF1の形状は、半円状の形状であってもよいし、長方形であってもよい。   For example, the cutout F1 may be formed at the upper left end of the touch panel 2, may be formed at the upper right end of the touch panel 2, or may be formed at the lower, left, or right edge of the touch panel 2. . The notch F1 may be formed so as to be shifted leftward or rightward from the upper center of the touch panel 2. Further, the number of notches F1 formed in touch panel 2 is not particularly limited. For example, two or more notches F1 may be formed on the upper portion of the touch panel 2. The shape of the notch F1 is U-shaped (the shape of the notch is square) in FIGS. 2A and 2B, but is not particularly limited. For example, the shape of the notch F1 may be a semicircular shape or a rectangular shape.

(センサ11)
センサ11は、ユーザの接触を検出する。本実施形態においては、図2の(a)および(b)に示すように、タッチパネル2の一部がセンサ11となっている。なお、センサ11がタッチパネル2とは独立したセンサであってもよい。センサ11はユーザの接触を検出できればよく特に限定されないが、例えば、静電容量を用いたセンサ、赤外線センサ等としてもよい。
(Sensor 11)
The sensor 11 detects a user's contact. In the present embodiment, as shown in FIGS. 2A and 2B, a part of the touch panel 2 is a sensor 11. Note that the sensor 11 may be a sensor independent of the touch panel 2. The sensor 11 is not particularly limited as long as it can detect a user's contact, but may be, for example, a sensor using capacitance, an infrared sensor, or the like.

また、センサ11はカメラ12の設置位置から所定の範囲内に配置している。ここで、センサ11を配置する所定の範囲とは、例えば、カメラ12の縁から2から3mmまでの範囲としてもよい。センサ11を配置する所定の範囲を、設計の都合に応じて適宜変更してもよい。センサ11は検出値を入力操作判定部(接触判定部)131に送信する。   Further, the sensor 11 is arranged within a predetermined range from the installation position of the camera 12. Here, the predetermined range in which the sensor 11 is arranged may be, for example, a range from 2 to 3 mm from the edge of the camera 12. The predetermined range in which the sensors 11 are arranged may be appropriately changed according to the design convenience. The sensor 11 transmits the detected value to the input operation determining unit (contact determining unit) 131.

(カメラ12)
カメラ12は被写体を撮像する機能を実行する。カメラ12はカメラ制御部(機能実行制御部)132の指示を受信し、当該指示に従い機能の実行を行う。また、図2の(a)に示すように、カメラ12は切欠きF1内に設置されている。
(Camera 12)
The camera 12 performs a function of capturing an image of a subject. The camera 12 receives an instruction from the camera control unit (function execution control unit) 132 and executes a function according to the instruction. Further, as shown in FIG. 2A, the camera 12 is installed in the notch F1.

(制御部13)
制御部13は情報端末1の各部を統括して制御する。制御部13は入力操作判定部131およびカメラ制御部132を備えている。
(Control unit 13)
The control unit 13 controls each unit of the information terminal 1. The control unit 13 includes an input operation determination unit 131 and a camera control unit 132.

(入力操作判定部131)
入力操作判定部131は、センサ11の検出値から、センサ11が配置している所定の範囲内に設定された複数の領域に対するユーザの接触を判定する。複数の領域とは、例えば、図2に示す領域R1、領域R2および領域R3等である。詳細には、入力操作判定部131は、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれたか否かを判定する。さらに詳細に説明すると、入力操作判定部131は、記憶部14に格納されているカメラ12の起動状態を示すカメラ状態情報141を参照し、カメラ12が起動している(カメラ12が撮像処理を行っている)か否かを判定する。カメラ12が起動している場合、入力操作判定部131は複数の領域のうち2つ以上の領域に対して同時の接触が行なわれたか否かを判定する。2つ以上の領域に対して同時の接触が行なわれた場合、入力操作判定部131はその旨をカメラ制御部132に送信する。
(Input operation determination unit 131)
The input operation determination unit 131 determines a user's contact with a plurality of regions set within a predetermined range where the sensor 11 is arranged, based on the detection value of the sensor 11. The plurality of regions are, for example, the region R1, the region R2, and the region R3 illustrated in FIG. More specifically, the input operation determination unit 131 determines whether or not two or more regions of the plurality of regions have been simultaneously touched. More specifically, the input operation determination unit 131 refers to the camera state information 141 indicating the activation state of the camera 12 stored in the storage unit 14 and activates the camera 12 (the camera 12 performs an imaging process). Is performed). When the camera 12 has been activated, the input operation determination unit 131 determines whether or not two or more of the plurality of regions have been touched simultaneously. When two or more areas are touched at the same time, the input operation determination unit 131 transmits a notification to that effect to the camera control unit 132.

(カメラ制御部132)
カメラ制御部132はカメラ12の機能実行を制御する。カメラ制御部132は複数の領域に対する接触に応じて、カメラ12の機能実行を制御する。詳細には、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合、カメラ制御部132はカメラ12(カメラ12による撮像)を終了させる。また、カメラ制御部132はカメラ12による撮像を終了させると、記憶部14に格納されているカメラ状態情報141を更新する。
(Camera control unit 132)
The camera control unit 132 controls execution of functions of the camera 12. The camera control unit 132 controls execution of functions of the camera 12 according to contact with a plurality of areas. More specifically, when two or more areas of the plurality of areas are simultaneously touched, the camera control unit 132 ends the camera 12 (imaging by the camera 12). Further, when the camera control unit 132 terminates the imaging by the camera 12, the camera control unit 132 updates the camera state information 141 stored in the storage unit 14.

(情報端末1の処理の流れ)
次に図3を参照して、情報端末1の処理について説明する。図3は、情報端末1が実行する処理の流れの一例を示すフローチャートである。例えば、カメラ12の周辺領域に対する接触操作の受付けが可能となった場合、情報端末1は当該処理を開始してもよい。例えば、カメラ12を用いるアプリケーションが起動した場合に、情報端末1は当該処理を開始してもよい。図3に示すように、入力操作判定部131はカメラ12が起動しているか否かを判定する(S1)。カメラ12が起動している場合(S1にてYES)、入力操作判定部131は複数の領域のうち2つ以上の領域に対して同時の接触が行なわれたか否かを判定する(S2:接触判定ステップ)。複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合(S2にてYES)、カメラ制御部132はカメラ12(カメラ12による撮像)を終了させ(S3:機能実行制御ステップ)、処理は終了する。なお、カメラ12が起動していない場合(S1にてNO)、処理は終了する。また、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれなかった場合(S2にてNO)、S2の処理が繰り返し行われる。
(Processing flow of information terminal 1)
Next, the processing of the information terminal 1 will be described with reference to FIG. FIG. 3 is a flowchart illustrating an example of the flow of a process performed by the information terminal 1. For example, when it becomes possible to receive a touch operation on the peripheral area of the camera 12, the information terminal 1 may start the process. For example, when an application using the camera 12 starts, the information terminal 1 may start the process. As shown in FIG. 3, the input operation determination unit 131 determines whether or not the camera 12 has been activated (S1). When the camera 12 has been activated (YES in S1), the input operation determination unit 131 determines whether or not two or more of the plurality of regions have been simultaneously contacted (S2: contact). Judgment step). If two or more areas of the plurality of areas are touched simultaneously (YES in S2), camera control section 132 ends camera 12 (imaging by camera 12) (S3: function execution control). Step), the process ends. If the camera 12 has not been activated (NO in S1), the process ends. If no simultaneous contact has been made to two or more of the plurality of regions (NO in S2), the process of S2 is repeatedly performed.

本実施形態においては、カメラ12の制御について例を示した。一方で、本実施形態に示した構成をカメラ以外のデバイスの制御に適用してもよい。特に、直感的な操作である接触操作を適用できるようなデバイスの制御に適用することができる。   In the present embodiment, an example of the control of the camera 12 has been described. On the other hand, the configuration shown in the present embodiment may be applied to control of devices other than the camera. In particular, it can be applied to control of a device to which a touch operation that is an intuitive operation can be applied.

〔実施形態2〕
本発明の他の実施形態について、図4および図5に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。本実施形態に係る情報端末1bは、長押し操作およびダブルタップ操作を判定し、カメラ12の機能実行を制御する。
[Embodiment 2]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as the members described in the above embodiment are denoted by the same reference numerals, and description thereof will be omitted. The information terminal 1b according to the present embodiment determines a long-press operation and a double-tap operation, and controls execution of functions of the camera 12.

(情報端末1bの構成)
情報端末1bの構成について、図4を参照して説明する。図4は、情報端末1bの要部構成を示すブロック図である。図4に示すように、情報端末1bは、タッチパネル2、センサ11、カメラ12、制御部13b、記憶部14およびタイマ15bを備えている。タッチパネル2、センサ11、カメラ12および記憶部14については、実施形態1にて詳細を説明したため、ここでの説明は省略する。
(Configuration of Information Terminal 1b)
The configuration of the information terminal 1b will be described with reference to FIG. FIG. 4 is a block diagram illustrating a main configuration of the information terminal 1b. As shown in FIG. 4, the information terminal 1b includes a touch panel 2, a sensor 11, a camera 12, a control unit 13b, a storage unit 14, and a timer 15b. The touch panel 2, the sensor 11, the camera 12, and the storage unit 14 have been described in detail in the first embodiment, and thus description thereof will be omitted.

(制御部13b)
制御部13bは入力操作判定部131bおよびカメラ制御部132bを備えている。
(Control unit 13b)
The control unit 13b includes an input operation determination unit 131b and a camera control unit 132b.

(入力操作判定部131b)
入力操作判定部131bは上述の入力操作判定部131の処理に加えて以下の処理を行う。入力操作判定部131bは複数の領域のうち2つ以上の領域に対する接触が第1の所定の時間の間継続したか否かを判定する。すなわち、入力操作判定部131bは長押し操作が行われたか否かを判定する。また、入力操作判定部131bは、複数の領域のうち2つ以上の領域に対して同時に接触があった時点から第2の所定の時間内に、複数の領域のうち2つ以上の領域に対する同時の接触が再び行なわれたか否かを判定する。すなわち、入力操作判定部131bはダブルタップ操作が行われたか否かを判定する。入力操作判定部131bは時間の経過を示すタイマ15bを参照し、上述の第1の所定の時間および第2の所定の時間の経過を判断する。より詳細に説明すると、入力操作判定部131bは、記憶部14に格納されているカメラ12の起動状態を示すカメラ状態情報141を参照し、カメラ12が起動しているか否かを判定する。カメラ12が起動している場合、入力操作判定部131は長押し操作が行われたか否かを判定する。また、カメラ12が起動していない場合、入力操作判定部131はダブルタップ操作が行われたか否かを判定する。長押し操作またはダブルタップ操作が行われた場合、入力操作判定部131bは長押し操作またはダブルタップ操作が行われた旨をカメラ制御部132bに送信する。
(Input operation determination unit 131b)
The input operation determination unit 131b performs the following processing in addition to the processing of the input operation determination unit 131 described above. The input operation determination unit 131b determines whether contact with two or more of the plurality of regions has been continued for a first predetermined time. That is, the input operation determining unit 131b determines whether a long press operation has been performed. In addition, the input operation determination unit 131b determines whether or not two or more regions among the plurality of regions have been simultaneously contacted within a second predetermined time from the time when the two or more regions among the plurality of regions have been simultaneously contacted. Is determined again. That is, the input operation determination unit 131b determines whether a double tap operation has been performed. The input operation determining unit 131b refers to the timer 15b indicating the lapse of time, and determines the lapse of the first predetermined time and the second predetermined time. More specifically, the input operation determination unit 131b refers to the camera state information 141 indicating the activation state of the camera 12 stored in the storage unit 14 and determines whether the camera 12 has been activated. When the camera 12 is activated, the input operation determination unit 131 determines whether a long press operation has been performed. When the camera 12 has not been activated, the input operation determining unit 131 determines whether a double tap operation has been performed. When the long press operation or the double tap operation is performed, the input operation determination unit 131b transmits to the camera control unit 132b that the long press operation or the double tap operation has been performed.

(カメラ制御部132b)
複数の領域のうち2つ以上の領域に対する接触が第1の所定の時間の間継続した(長押し操作が行われた)場合、カメラ制御部132bはカメラ12の機能実行を制御する。本実施形態では、特に、長押し操作が行なわれた場合、カメラ制御部132bはカメラ12(カメラ12による撮像)を終了させる。
(Camera control unit 132b)
When the contact with two or more areas of the plurality of areas continues for the first predetermined time (the long press operation is performed), the camera control unit 132b controls the function execution of the camera 12. In the present embodiment, in particular, when a long press operation is performed, the camera control unit 132b ends the camera 12 (imaging by the camera 12).

複数の領域のうち2つ以上の領域に対する同時の接触があった時点から第2の所定の時間内に、複数の領域のうち2つ以上の領域に対する同時の接触が行なわれた(ダブルタップ操作が行なわれた)場合、カメラ制御部132bはカメラ12の機能実行を制御する。本実施形態では、特に、ダブルタップ操作が行なわれた場合、カメラ制御部132bはカメラ12を起動させる(カメラ12による撮像を開始させる)。すなわち、カメラ制御部132bは、長押し操作またはダブルタップ操作に対応したカメラ12の機能の実行の制御を行う。   Within a second predetermined time from the point of simultaneous contact with two or more regions of the plurality of regions, simultaneous contact with two or more regions of the plurality of regions was performed (double tap operation Is performed), the camera control unit 132b controls execution of the function of the camera 12. In the present embodiment, particularly, when a double tap operation is performed, the camera control unit 132b activates the camera 12 (starts imaging by the camera 12). That is, the camera control unit 132b controls execution of a function of the camera 12 corresponding to a long press operation or a double tap operation.

(情報端末1bの処理の流れ)
次に図5を参照して、情報端末1bの処理について説明する。図5は、情報端末1bが実行する処理の流れの一例を示すフローチャートである。S1およびS2の処理については実施形態1にて説明した処理と同様のため、ここでの詳細な説明は省略する。図5に示すように、カメラ12が起動しており(S1にてYES)、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合(S2にてYES)、S11に続く。入力操作判定部131bは2つ以上の領域に対する接触が第1の所定の時間の間継続したか否かを判定する(S11:接触判定ステップ)。すなわち、S2からS11では、入力操作判定部131bは長押し操作が行われたか否かを判定する。2つ以上の領域に対する接触が第1の所定の時間の間継続した場合(S11にてYES)、カメラ制御部132bはカメラ12による撮像を終了させ(S3)、処理は終了する。なお、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれなかった場合(S2にてNO)または2つ以上の領域に対する接触が第1の所定の時間の間継続しなかった場合(S11にてNO)、処理はS2に戻る。
(Processing flow of information terminal 1b)
Next, the processing of the information terminal 1b will be described with reference to FIG. FIG. 5 is a flowchart illustrating an example of the flow of a process performed by the information terminal 1b. Since the processing in S1 and S2 is the same as the processing described in the first embodiment, detailed description thereof will be omitted. As shown in FIG. 5, when the camera 12 is activated (YES in S1), and two or more areas out of the plurality of areas are simultaneously contacted (YES in S2), S11 is performed. followed by. The input operation determination unit 131b determines whether or not contact with two or more areas has continued for a first predetermined time (S11: contact determination step). That is, in S2 to S11, the input operation determination unit 131b determines whether or not a long press operation has been performed. If the contact with the two or more areas has continued for the first predetermined time (YES in S11), camera control unit 132b terminates imaging by camera 12 (S3), and the process ends. In addition, when the simultaneous contact has not been performed on two or more regions of the plurality of regions (NO in S2), or the contact on the two or more regions has not continued for the first predetermined time. If (NO in S11), the process returns to S2.

また、カメラ12が起動していない場合(S1にてNO)、入力操作判定部131は複数の領域のうち2つ以上の領域に対して同時の接触が行なわれたか否かを判定する(S12:接触判定ステップ)。2つ以上の領域に対して同時の接触が行なわれた場合(S12にてYES)、入力操作判定部131bは、第2の所定の時間内に、複数の領域のうち2つ以上の領域に対する同時の接触が再び行なわれたか否かを判定する(S13:接触判定ステップ)。すなわち、S12からS13では、入力操作判定部131bはダブルタップ操作が行われたか否かを判定する。換言すると、S12からS13にて、入力操作判定部131bは一定時間以内において、2つ以上の領域に対して接触、非接触および接触の一連の操作が行なわれたか否かをセンサ11の検出値から判定する。第2の所定の時間内に、複数の領域のうち2つ以上の領域に対する同時の接触が再び行なわれた場合(S13にてYES)、カメラ制御部132bはカメラ12を起動(カメラ12による撮像を開始)させ(S14:機能実行制御ステップ)、処理は終了する。なお、2つ以上の領域に対して同時の接触が行なわれなかった場合(S12にてNO)または第2の所定の時間内に、複数の領域のうち2つ以上の領域に対する同時の接触が行なわれなかった場合(S13にてNO)、処理はS12に戻る。また、本処理は、カメラ12の周辺領域に対する接触操作を受付けない状態となった場合に終了してもよい。例えば、カメラ12を用いるアプリケーションが終了した場合に本処理が終了してもよい。また、S3およびS14の処理が終了すると、S1の処理に戻る構成としてもよい。また、本処理におけるS2からS11の処理と、S12からS13の処理とを入れ替えてもよい。すなわち、ダブルタップ操作が行なわれた場合にカメラ12を終了し、長押し操作が行なわれた場合にカメラ12を起動してもよい。   If the camera 12 has not been activated (NO in S1), the input operation determination unit 131 determines whether or not two or more of the plurality of regions have been touched simultaneously (S12). : Contact determination step). If two or more areas have been touched simultaneously (YES in S12), input operation determination unit 131b determines whether or not two or more of the plurality of areas have been touched within the second predetermined time. It is determined whether or not the simultaneous contact has been performed again (S13: contact determination step). That is, in S12 to S13, the input operation determination unit 131b determines whether or not a double tap operation has been performed. In other words, from S12 to S13, the input operation determination unit 131b determines whether or not a series of operations of contact, non-contact, and contact have been performed on two or more areas within a predetermined time by the detection value of the sensor 11. Is determined from If two or more of the plurality of areas are simultaneously contacted again within the second predetermined time (YES in S13), camera control unit 132b activates camera 12 (imaging by camera 12). Is started) (S14: function execution control step), and the process ends. In addition, when the simultaneous contact has not been performed on two or more regions (NO in S12) or within the second predetermined time, the simultaneous contact on two or more regions among the plurality of regions has not been performed. If not performed (NO in S13), the process returns to S12. In addition, the present process may be terminated when a state in which a contact operation on the peripheral area of the camera 12 is not received is received. For example, this processing may end when the application using the camera 12 ends. Further, when the processing of S3 and S14 ends, the processing may return to the processing of S1. Further, the processing from S2 to S11 and the processing from S12 to S13 in this processing may be interchanged. That is, the camera 12 may be terminated when the double tap operation is performed, and may be activated when the long press operation is performed.

本実施形態においては、カメラ12の起動および終了の制御について例を示した。他の例として、モバイルライトの点灯および消灯等に適用してもよい。特に、本実施形態の構成を直感的な操作である接触操作を適用できるようなデバイスの制御に適用することができる。   In the present embodiment, an example has been described with respect to control of activation and termination of the camera 12. As another example, the present invention may be applied to turning on and off a mobile light. In particular, the configuration of the present embodiment can be applied to control of a device to which a touch operation that is an intuitive operation can be applied.

〔実施形態3〕
本発明の他の実施形態について、図6および図7に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。本実施形態に係る情報端末1cは、マイク(機能実行部)16cの機能の実行を制御する。
[Embodiment 3]
The following will describe another embodiment of the present invention with reference to FIGS. For convenience of explanation, members having the same functions as the members described in the above embodiment are denoted by the same reference numerals, and description thereof will be omitted. The information terminal 1c according to the present embodiment controls the execution of the function of the microphone (function execution unit) 16c.

(情報端末1cの構成)
情報端末1cの構成について、図6を参照して説明する。図6は、情報端末1cの要部構成を示すブロック図である。図6に示すように、情報端末1cは、タッチパネル2、センサ11、マイク16c、制御部13c、記憶部14cおよびタイマ15bを備えている。タッチパネル2およびタイマ15bについては、実施形態1および2にて詳細を説明したため、ここでの説明は省略する。また、実施形態1および2のセンサ11がカメラ12の設置位置から所定の範囲内に配置しているのに対し、センサ11cはマイク16cの設置位置から所定の範囲内に配置している。センサ11cのその他の構成はセンサ11と同様である。
(Configuration of Information Terminal 1c)
The configuration of the information terminal 1c will be described with reference to FIG. FIG. 6 is a block diagram illustrating a main configuration of the information terminal 1c. As shown in FIG. 6, the information terminal 1c includes a touch panel 2, a sensor 11, a microphone 16c, a control unit 13c, a storage unit 14c, and a timer 15b. Since the touch panel 2 and the timer 15b have been described in detail in the first and second embodiments, description thereof will be omitted. Further, the sensors 11 of the first and second embodiments are arranged within a predetermined range from the installation position of the camera 12, whereas the sensor 11c is arranged within a predetermined range from the installation position of the microphone 16c. Other configurations of the sensor 11c are the same as those of the sensor 11.

(マイク16c)
マイク16cは音声を集音する。マイク16cはマイク制御部(機能実行制御部)133cの指示を受信し、当該指示に従いミュート状態となる。また、実施形態1にて説明したカメラ12と同様に、マイク16cは図2の(a)に示す切欠きF1内に設置されていてもよい。
(Microphone 16c)
The microphone 16c collects sound. The microphone 16c receives an instruction from the microphone control unit (function execution control unit) 133c, and enters a mute state according to the instruction. Further, similarly to the camera 12 described in the first embodiment, the microphone 16c may be installed in the notch F1 shown in FIG.

(制御部13c)
制御部13cは、入力操作判定部131cおよびマイク制御部133cを備えている。
(Control unit 13c)
The control unit 13c includes an input operation determination unit 131c and a microphone control unit 133c.

(入力操作判定部131c)
入力操作判定部131cは、記憶部14に格納されているマイク16cの機能が有効であるか否か(ミュート状態であるか否か)を示すマイク状態情報142cを参照し、マイク16cが有効であるか否かを判定する。マイク16cの機能が有効である(集音を行っている)場合、入力操作判定部131cは、実施形態2の入力操作判定部131bと同様に、接触操作による長押し操作が行われたか否かを判定する。入力操作判定部131cは長押し操作が行われた場合、長押し操作が行われた旨をマイク制御部133cに送信する。
(Input operation determination unit 131c)
The input operation determination unit 131c refers to the microphone state information 142c indicating whether the function of the microphone 16c stored in the storage unit 14 is valid (whether the microphone 16c is in a mute state), and the microphone 16c is valid. It is determined whether or not there is. When the function of the microphone 16c is valid (collecting sound), the input operation determining unit 131c determines whether or not a long-press operation by a contact operation has been performed, similarly to the input operation determining unit 131b of the second embodiment. Is determined. When a long press operation is performed, the input operation determination unit 131c transmits to the microphone control unit 133c that the long press operation has been performed.

(マイク制御部133c)
マイク制御部133cは、長押し操作が行なわれた場合、マイク16cの機能実行を制御する。詳細には、長押し操作が行なわれた場合、マイク制御部133cはマイク16cをミュートにする。また、マイク制御部133cはマイク16cをミュートにすると、記憶部14cに格納されているマイク状態情報142cを更新する。
(Microphone control unit 133c)
When a long press operation is performed, the microphone control unit 133c controls execution of the function of the microphone 16c. Specifically, when a long press operation is performed, the microphone control unit 133c mutes the microphone 16c. When the microphone 16c is muted, the microphone control unit 133c updates the microphone state information 142c stored in the storage unit 14c.

(情報端末1cの処理の流れ)
次に図7を参照して、情報端末1cの処理について説明する。図7は、情報端末1cが実行する処理の流れの一例を示すフローチャートである。例えば、マイク16cの周辺領域に対する接触操作の受付けが可能となった場合、情報端末1cは当該処理を開始してもよい。例えば、マイク16cを用いるアプリケーションが起動した場合に、情報端末1cは当該処理を開始してもよい。図7に示すように、入力操作判定部131cはマイク16cの機能が有効であるか否かを判定する(S21)。マイク16cの機能が有効である場合(S21にてYES)、入力操作判定部131cは複数の領域のうち2つ以上の領域に対して同時の接触が行なわれたか否かを判定する(S22:接触判定ステップ)。複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合(S22にてYES)、入力操作判定部131cは2つ以上の領域に対する接触が第1の所定の時間の間継続したか否かを判定する(S23:接触判定ステップ)。すなわち、S22からS23では、入力操作判定部131cは長押し操作が行われたか否かを判定する。2つ以上の領域に対する接触が第1の所定の時間の間継続した場合(S23にてYES)、マイク制御部133cはマイク16cの機能を無効(ミュート)し(S24:機能実行制御ステップ)、処理は終了する。また、本処理は、マイク16cの周辺領域に対する接触操作を受付けない状態となった場合に終了してもよい。例えば、マイク16cを用いるアプリケーションが終了した場合に本処理が終了してもよい。また、S21からS24の処理が終了すると、S21の処理に戻る構成としてもよい。
(Processing flow of information terminal 1c)
Next, the processing of the information terminal 1c will be described with reference to FIG. FIG. 7 is a flowchart illustrating an example of the flow of a process performed by the information terminal 1c. For example, when it becomes possible to receive a contact operation on the peripheral area of the microphone 16c, the information terminal 1c may start the process. For example, when an application using the microphone 16c is activated, the information terminal 1c may start the process. As shown in FIG. 7, the input operation determination unit 131c determines whether the function of the microphone 16c is valid (S21). When the function of the microphone 16c is valid (YES in S21), the input operation determination unit 131c determines whether or not two or more areas of the plurality of areas have been simultaneously touched (S22: Contact determination step). If two or more areas of the plurality of areas have been touched simultaneously (YES in S22), input operation determination unit 131c determines that the touch on the two or more areas has been made for the first predetermined time. It is determined whether or not it has continued (S23: contact determination step). That is, from S22 to S23, the input operation determination unit 131c determines whether or not a long press operation has been performed. If the contact with the two or more areas has continued for the first predetermined time (YES in S23), microphone control unit 133c disables (mutes) the function of microphone 16c (S24: function execution control step), The process ends. In addition, the present process may be terminated when a state in which a contact operation on the peripheral area of the microphone 16c is not accepted. For example, this processing may end when the application using the microphone 16c ends. Further, when the processing from S21 to S24 is completed, the processing may return to the processing in S21.

なお、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれなかった場合(S22にてNO)または2つ以上の領域に対する接触が第1の所定の時間の間継続しなかった場合(S23にてNO)、処理はS22に戻る。   In addition, when the simultaneous contact has not been performed on two or more regions of the plurality of regions (NO in S22), or the contact on the two or more regions has not been continued for the first predetermined time. If (NO in S23), the process returns to S22.

本実施形態においては、マイク16cのミュートの制御について例を示した。他の例として、スピーカの音量をOFFにする制御に適用してもよい。特に本実施形態の構成を直感的な操作である接触操作を適用できるようなデバイスの制御に適用することができる。   In the present embodiment, an example has been described regarding the control of the mute of the microphone 16c. As another example, the present invention may be applied to control for turning off the volume of a speaker. In particular, the configuration of the present embodiment can be applied to control of a device to which a touch operation that is an intuitive operation can be applied.

〔ソフトウェアによる実現例〕
情報端末1、1b、1cの制御ブロック(特に入力操作判定部131、入力操作判定部131b、入力操作判定部131c、カメラ制御部132、カメラ制御部132bおよびマイク制御部132c)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
[Example of software implementation]
The control blocks of the information terminals 1, 1b, and 1c (particularly, the input operation determination unit 131, the input operation determination unit 131b, the input operation determination unit 131c, the camera control unit 132, the camera control unit 132b, and the microphone control unit 132c) are integrated circuits ( It may be realized by a logic circuit (hardware) formed in an IC chip) or the like, or may be realized by software.

後者の場合、情報端末1、1b、1cは、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   In the latter case, the information terminals 1, 1b, and 1c each include a computer that executes instructions of a program that is software for realizing each function. This computer includes, for example, one or more processors and a computer-readable recording medium storing the program. Then, in the computer, the object of the present invention is achieved by the processor reading the program from the recording medium and executing the program. As the processor, for example, a CPU (Central Processing Unit) can be used. Examples of the recording medium include “temporary tangible medium” such as a ROM (Read Only Memory), a tape, a disk, a card, a semiconductor memory, and a programmable logic circuit. Further, a RAM (Random Access Memory) for expanding the program may be further provided. Further, the program may be supplied to the computer via an arbitrary transmission medium (a communication network, a broadcast wave, or the like) capable of transmitting the program. Note that one embodiment of the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the above-described program is embodied by electronic transmission.

〔まとめ〕
本発明の態様1に係る電子機器(情報端末1、1b、1c)は、自機器に備えられた機能を実行する機能実行部(カメラ12、マイク16c)と、上記機能実行部から所定の範囲内に配置されたユーザの接触を検出するセンサ(11)と、上記センサの検出値から、上記所定の範囲内に設定された複数の領域に対する上記接触を判定する接触判定部(入力操作判定部131、131b、131c)と、上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御部(カメラ制御部132、カメラ制御部132b、マイク制御部132c)とを備えている。
[Summary]
An electronic device (information terminal 1, 1b, 1c) according to aspect 1 of the present invention includes a function execution unit (camera 12, microphone 16c) that executes a function provided in the own device, and a predetermined range from the function execution unit. A sensor (11) that detects a contact of a user disposed in the sensor, and a contact determination unit (input operation determination unit) that determines the contact with respect to a plurality of regions set within the predetermined range based on detection values of the sensor. 131, 131b, 131c), and a function execution control unit (camera control unit 132, camera control unit 132b, microphone control unit 132c) that controls execution of the function of the function execution unit according to the contact with the plurality of regions. It has.

上記の構成によれば、機能実行部から所定の範囲内に設定された複数の領域に対する接触に応じて機能実行部の機能実行を制御する。換言すると、所定の範囲内に設定された1つの領域のみの接触では、機能実行制御部は機能実行を制御しない。そのため、ユーザが機能実行の制御を意図せずに所定の範囲内に接触した場合においても、所定の範囲内の複数の領域に対して接触していなければ機能実行は制御されない。従って、ユーザが機能実行の制御を意図せずに所定の範囲内を接触することによって生じる誤操作を低減することができる。   According to the above configuration, the function execution of the function execution unit is controlled in accordance with the contact with the plurality of regions set within a predetermined range from the function execution unit. In other words, the function execution control unit does not control the execution of the function when only one area set within the predetermined range is touched. Therefore, even when the user touches a predetermined range without intending to control the function execution, the function execution is not controlled unless the user touches a plurality of regions within the predetermined range. Therefore, it is possible to reduce erroneous operations caused by the user touching a predetermined range without intending to control the function execution.

本発明の態様2に係る電子機器は、上記態様1において、上記電子機器は、一部に切欠きを含む形状のタッチパネル(2)を備えており、上記機能実行部は上記切欠き(F1)内に設置されており、上記センサは上記タッチパネルの一部の領域によって構成されており、当該領域は上記切欠きを形成する上記タッチパネルの縁から所定の範囲内の領域であってもよい。   An electronic device according to an aspect 2 of the present invention is the electronic device according to the aspect 1, wherein the electronic device includes a touch panel (2) having a shape partially including a notch, and the function execution unit includes the notch (F1). And the sensor is configured by a partial area of the touch panel, and the area may be an area within a predetermined range from an edge of the touch panel forming the cutout.

上記の構成によれば、タッチパネルとセンサとを共通化できる。また、タッチパネルの切欠き内に機能実行部を備えている構成においては、ユーザが機能実行部から所定の範囲内を誤って接触する機会が多くなると考えられる。上記の構成によれば、所定の範囲内に設定された1つの領域のみの接触では、機能実行制御部は機能実行を制御しない。そのため、ユーザが機能実行部から所定の範囲内を誤って接触する機会が多くなると考えられる切欠き内に機能実行部を備えている構成においても、ユーザが機能実行の制御を意図せずに所定の範囲内を接触した場合の誤操作を低減することができる。   According to the above configuration, the touch panel and the sensor can be shared. Further, in the configuration in which the function execution unit is provided in the notch of the touch panel, it is considered that the chance that the user erroneously contacts a predetermined range from the function execution unit is increased. According to the above configuration, the function execution control unit does not control the execution of the function when only one area set within the predetermined range is touched. For this reason, even in a configuration in which the function execution unit is provided in a notch in which the user is likely to accidentally touch the predetermined range from the function execution unit, the user does not intend to control the function execution. Erroneous operation when contact is made within the range of.

本発明の態様3に係る電子機器は、上記態様1または2において、上記複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合、上記機能実行制御部は上記機能実行部の機能実行を制御してもよい。   In the electronic device according to the third aspect of the present invention, in the first or second aspect, when two or more areas of the plurality of areas are simultaneously touched, the function execution control unit may execute the function execution. The function execution of the unit may be controlled.

上記の構成によれば、複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合に、機能実行部による機能実行が制御される。換言すると、複数の領域のうち1つの領域のみに接触が行なわれた場合、機能実行部による機能実行は制御されない。また、2つ以上の領域に接触が行なわれたとしても該接触が同時でない場合、機能実行部による機能実行は制御されない。そのため、ユーザが機能実行の制御を意図せずに所定の範囲内を接触した場合の誤操作を低減することができる。   According to the above configuration, when simultaneous contact is made to two or more of the plurality of regions, the function execution by the function execution unit is controlled. In other words, when only one of the plurality of areas is touched, the function execution by the function execution unit is not controlled. Even if two or more areas are touched, if the touches are not simultaneous, the function execution by the function execution unit is not controlled. For this reason, it is possible to reduce erroneous operations when the user touches within a predetermined range without intending to control the function execution.

本発明の態様4に係る電子機器(情報端末1b、情報端末1c)は、上記態様3において、上記接触が第1の所定の時間の間継続した場合、上記機能実行制御部(カメラ制御部132b、マイク制御部132c)は上記機能実行部の機能実行を制御してもよい。上記の構成によれば、接触が第1の所定の時間の間継続した場合、機能実行部による機能実行が制御される。換言すると、接触が所定の時間の間継続しなかった場合、機能実行部による機能実行は制御されない。そのため、ユーザが機能実行の制御を意図せずに所定の範囲内を接触した場合の誤操作を低減することができる。   The electronic device (information terminal 1b, information terminal 1c) according to aspect 4 of the present invention, in the above-described aspect 3, when the contact continues for a first predetermined time, the function execution control unit (camera control unit 132b , The microphone control unit 132c) may control the function execution of the function execution unit. According to the above configuration, when the contact continues for the first predetermined time, the function execution by the function execution unit is controlled. In other words, when the contact does not continue for the predetermined time, the function execution by the function execution unit is not controlled. For this reason, it is possible to reduce erroneous operations when the user touches within a predetermined range without intending to control the function execution.

本発明の態様5に係る電子機器(情報端末1b)は、上記態様3において、上記複数の領域のうち2つ以上の領域に対する同時の接触があった時点から第2の所定の時間内に上記複数の領域のうち2つ以上の領域に対する同時の接触が行なわれた場合、上記機能実行制御部(カメラ制御部132b)は上記機能実行部の機能実行を制御してもよい。   The electronic device (information terminal 1b) according to the fifth aspect of the present invention is the electronic device (information terminal 1b) according to the third aspect, wherein the electronic device (the information terminal 1b) contacts the two or more of the plurality of regions at the same time within a second predetermined time period When two or more areas of the plurality of areas are simultaneously contacted, the function execution control unit (camera control unit 132b) may control the function execution of the function execution unit.

上記の構成によれば、複数の領域のうち2つ以上の領域に対する同時の接触があった時点から第2の所定の時間内に複数の領域のうち2つ以上の領域に対する同時の接触が行なわれた場合、機能実行制御部は機能実行部の機能実行を制御する。換言すると、複数の領域のうち2つ以上の領域に対する同時の接触から第2の所定の時間内に複数の領域のうち2つ以上の領域に対する同時の接触がない場合、機能実行部による機能実行は制御されない。そのため、ユーザが機能実行の制御を意図せずに所定の範囲内を接触した場合の誤操作を低減することができる。   According to the above configuration, simultaneous contact with two or more regions of the plurality of regions is performed within the second predetermined time from the point of simultaneous contact with two or more regions of the plurality of regions. The function execution control unit controls the execution of the function by the function execution unit. In other words, if there is no simultaneous contact with two or more regions among the plurality of regions within the second predetermined time after simultaneous contact with two or more regions among the plurality of regions, the function execution unit executes the function. Is not controlled. For this reason, it is possible to reduce erroneous operations when the user touches within a predetermined range without intending to control the function execution.

本発明の態様6に係る電子機器の制御方法は、自機器に備えられた機能を実行する機能実行部から所定の範囲内に配置された接触を検出するセンサの検出値から、上記所定の範囲内に設定された複数の領域に対する上記接触を判定する接触判定ステップ(S2、S11、S12、S13、S22、S23)と、上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御ステップ(S3、S14、S24)と、を含む。上記の構成によれば、上記態様1と同様の効果を奏することができる。   The control method for an electronic device according to the sixth aspect of the present invention may be configured such that the predetermined range is determined based on a detection value of a sensor that detects a contact arranged within a predetermined range from a function execution unit that executes a function provided in the own device. A contact determination step (S2, S11, S12, S13, S22, S23) for determining the contact with a plurality of regions set in the function execution unit in response to the contact with the plurality of regions. (S3, S14, S24). According to the above configuration, the same effects as in the first aspect can be obtained.

本発明の各態様に係る電子機器は、コンピュータによって実現してもよく、この場合には、コンピュータを上記電子機器が備える各部(ソフトウェア要素)として動作させることにより上記電子機器をコンピュータにて実現させる電子機器の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The electronic device according to each aspect of the present invention may be realized by a computer. In this case, the computer is realized by operating the computer as each unit (software element) included in the electronic device. A control program for an electronic device and a computer-readable recording medium that records the program are also included in the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the embodiments described above, and various modifications are possible within the scope shown in the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. Is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

1、1b、1c 情報端末(電子機器)
2 タッチパネル
11 センサ
12 カメラ(機能実行部)
16c マイク(機能実行部)
131、131b、131c 入力操作判定部(接触判定部)
132、132b カメラ制御部(機能実行制御部)
132c マイク制御部(機能実行制御部)
F1 切欠き
S2、S11、S12、S13、S22、S23 接触判定ステップ
S3、S14、S24 機能実行制御ステップ
1, 1b, 1c Information terminal (electronic equipment)
2 Touch panel 11 Sensor 12 Camera (function execution unit)
16c microphone (function execution unit)
131, 131b, 131c Input operation determination unit (contact determination unit)
132, 132b Camera control unit (function execution control unit)
132c Microphone control unit (function execution control unit)
F1 Notch S2, S11, S12, S13, S22, S23 Contact determination step S3, S14, S24 Function execution control step

Claims (7)

自機器に備えられた機能を実行する機能実行部と、
上記機能実行部から所定の範囲内に配置されたユーザの接触を検出するセンサと、
上記センサの検出値から、上記所定の範囲内に設定された複数の領域に対する上記接触を判定する接触判定部と、
上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御部と
を備えていることを特徴とする電子機器。
A function execution unit that executes a function provided in the own device;
A sensor that detects contact of a user arranged within a predetermined range from the function execution unit,
From the detection value of the sensor, a contact determination unit that determines the contact to a plurality of regions set within the predetermined range,
An electronic device, comprising: a function execution control unit that controls execution of a function of the function execution unit according to the contact with the plurality of regions.
上記電子機器は、一部に切欠きを含む形状のタッチパネルを備えており、
上記機能実行部は上記切欠き内に設置されており、
上記センサは上記タッチパネルの一部の領域によって構成されており、当該領域は上記切欠きを形成する上記タッチパネルの縁から所定の範囲内の領域であることを特徴とする請求項1に記載の電子機器。
The electronic device includes a touch panel having a shape including a notch in a part thereof,
The function execution unit is installed in the notch,
2. The electronic device according to claim 1, wherein the sensor is configured by a partial area of the touch panel, and the area is an area within a predetermined range from an edge of the touch panel forming the cutout. 3. machine.
上記複数の領域のうち2つ以上の領域に対して同時の接触が行なわれた場合、上記機能実行制御部は上記機能実行部の機能実行を制御することを特徴とする請求項1または2に記載の電子機器。   The method according to claim 1, wherein when two or more areas of the plurality of areas are simultaneously contacted, the function execution control unit controls the function execution of the function execution unit. Electronic device as described. 上記接触が第1の所定の時間の間継続した場合、上記機能実行制御部は上記機能実行部の機能実行を制御することを特徴とする請求項3に記載の電子機器。   The electronic device according to claim 3, wherein the function execution control unit controls the function execution of the function execution unit when the contact continues for a first predetermined time. 上記複数の領域のうち2つ以上の領域に対する同時の接触があった時点から第2の所定の時間内に上記複数の領域のうち2つ以上の領域に対する同時の接触が行なわれた場合、上記機能実行制御部は上記機能実行部の機能実行を制御することを特徴とする請求項3に記載の電子機器。   When a simultaneous contact is made to two or more regions of the plurality of regions within a second predetermined time after a simultaneous contact is made to two or more regions of the plurality of regions, The electronic device according to claim 3, wherein the function execution control unit controls execution of the function of the function execution unit. 自機器に備えられた機能を実行する機能実行部から所定の範囲内に配置された接触を検出するセンサの検出値から、上記所定の範囲内に設定された複数の領域に対する上記接触を判定する接触判定ステップと、
上記複数の領域に対する上記接触に応じて、上記機能実行部の機能実行を制御する機能実行制御ステップと、
を含むことを特徴とする電子機器の制御方法。
From the detection value of a sensor that detects a contact arranged within a predetermined range from a function execution unit that executes a function provided in the own device, the contact with respect to a plurality of areas set within the predetermined range is determined. A contact determination step;
A function execution control step of controlling a function execution of the function execution unit in accordance with the contact with the plurality of regions;
A method for controlling an electronic device, comprising:
請求項1に記載の電子機器としてコンピュータを機能させるためのプログラムであって、上記接触判定部および上記機能実行制御部としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the electronic apparatus according to claim 1, wherein the program causes a computer to function as the contact determination unit and the function execution control unit.
JP2019526168A 2017-06-28 2018-04-11 Electronic devices, control methods and programs for electronic devices Active JP6928652B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017126669 2017-06-28
JP2017126669 2017-06-28
PCT/JP2018/015161 WO2019003571A1 (en) 2017-06-28 2018-04-11 Electronic device, method for controlling electronic device, and program

Publications (2)

Publication Number Publication Date
JPWO2019003571A1 true JPWO2019003571A1 (en) 2020-04-02
JP6928652B2 JP6928652B2 (en) 2021-09-01

Family

ID=64742195

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019526168A Active JP6928652B2 (en) 2017-06-28 2018-04-11 Electronic devices, control methods and programs for electronic devices

Country Status (2)

Country Link
JP (1) JP6928652B2 (en)
WO (1) WO2019003571A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110740265B (en) * 2019-10-31 2021-03-12 维沃移动通信有限公司 Image processing method and terminal equipment
CN111163260B (en) * 2019-12-20 2021-11-19 维沃移动通信有限公司 Camera starting method and electronic equipment

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092321A (en) * 2004-09-24 2006-04-06 Toshiba Corp Electronic equipment and touchpad device
JP2008225648A (en) * 2007-03-09 2008-09-25 Alps Electric Co Ltd Power source controller and electronic equipment equipped with the same, and method for starting electronic equipment
JP2011034579A (en) * 2010-09-29 2011-02-17 Toshiba Corp Electronic equipment and input control method
WO2014129286A1 (en) * 2013-02-19 2014-08-28 Necカシオモバイルコミュニケーションズ株式会社 Information processing terminal, screen control method, and screen control program
JP2015022489A (en) * 2013-07-18 2015-02-02 富士ゼロックス株式会社 Information processor and program
JP2015230693A (en) * 2014-06-06 2015-12-21 キヤノン株式会社 Information processing device, input method, computer program, and recording medium
JP2016539359A (en) * 2013-12-25 2016-12-15 ホアウェイ・デバイス・カンパニー・リミテッド Mobile terminal and method for starting shooting on a mobile terminal
JP2016224834A (en) * 2015-06-03 2016-12-28 キヤノン株式会社 Electronic device and control method thereof
EP3109727A2 (en) * 2015-06-25 2016-12-28 Xiaomi Inc. A method and apparatus for controlling a display, and a mobile terminal
JP2017058840A (en) * 2015-09-15 2017-03-23 セイコーエプソン株式会社 Display system, display device control method, and program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006092321A (en) * 2004-09-24 2006-04-06 Toshiba Corp Electronic equipment and touchpad device
JP2008225648A (en) * 2007-03-09 2008-09-25 Alps Electric Co Ltd Power source controller and electronic equipment equipped with the same, and method for starting electronic equipment
JP2011034579A (en) * 2010-09-29 2011-02-17 Toshiba Corp Electronic equipment and input control method
WO2014129286A1 (en) * 2013-02-19 2014-08-28 Necカシオモバイルコミュニケーションズ株式会社 Information processing terminal, screen control method, and screen control program
JP2015022489A (en) * 2013-07-18 2015-02-02 富士ゼロックス株式会社 Information processor and program
JP2016539359A (en) * 2013-12-25 2016-12-15 ホアウェイ・デバイス・カンパニー・リミテッド Mobile terminal and method for starting shooting on a mobile terminal
JP2015230693A (en) * 2014-06-06 2015-12-21 キヤノン株式会社 Information processing device, input method, computer program, and recording medium
JP2016224834A (en) * 2015-06-03 2016-12-28 キヤノン株式会社 Electronic device and control method thereof
EP3109727A2 (en) * 2015-06-25 2016-12-28 Xiaomi Inc. A method and apparatus for controlling a display, and a mobile terminal
JP2017058840A (en) * 2015-09-15 2017-03-23 セイコーエプソン株式会社 Display system, display device control method, and program

Also Published As

Publication number Publication date
WO2019003571A1 (en) 2019-01-03
JP6928652B2 (en) 2021-09-01

Similar Documents

Publication Publication Date Title
JP5105127B2 (en) Portable terminal, its key operation control method and program
WO2018107900A1 (en) Method and device for preventing mistouch on touch screen, mobile terminal, and storage medium
WO2018107898A1 (en) Method and device for preventing false triggering of touch button, terminal and storage medium
US20130285956A1 (en) Mobile device provided with display function, storage medium, and method for controlling mobile device provided with display function
CN107357458B (en) Touch key response method and device, storage medium and mobile terminal
CN106873834B (en) Method and device for identifying triggering of key and mobile terminal
WO2014026633A1 (en) Method for preventing misoperation of touchscreen, touchscreen and mobile terminal
JP2011086038A (en) Electronic apparatus and program
KR20100081575A (en) Apparatus and method for controlling on/off of liquid crystal display in a portable terminal
JP6096854B1 (en) Electronic device and method of operating electronic device
JP6229069B2 (en) Mobile terminal, how to handle virtual buttons
CN106919283A (en) The touch event processing method of terminal, device and terminal
JP6928652B2 (en) Electronic devices, control methods and programs for electronic devices
KR101952342B1 (en) Off-center sensor target region
WO2019072169A1 (en) Detection method and device for preventing accidental touch and terminal
WO2011105061A1 (en) Portable terminal, input control program, and input control method
WO2011058733A1 (en) Mobile communication terminal, input control program and input control method
JP6734152B2 (en) Electronic device, control device, control program, and operating method of electronic device
JP2018014111A (en) Electronic apparatus
CN113485632A (en) Touch control method for folding screen, terminal device and computer readable storage medium
CN111580740A (en) Intelligent device control method and device, intelligent device and storage medium
CN107407982B (en) Input method of touch screen and terminal
JP2017142782A (en) Electronic device, calibration method, and program
JP6073511B1 (en) Electronic device, calibration method, and program
TW202134840A (en) Touch system, touch device and method for reducing false point

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210608

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210806

R150 Certificate of patent or registration of utility model

Ref document number: 6928652

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150