JP2020057122A - Electronic apparatus - Google Patents

Electronic apparatus Download PDF

Info

Publication number
JP2020057122A
JP2020057122A JP2018186292A JP2018186292A JP2020057122A JP 2020057122 A JP2020057122 A JP 2020057122A JP 2018186292 A JP2018186292 A JP 2018186292A JP 2018186292 A JP2018186292 A JP 2018186292A JP 2020057122 A JP2020057122 A JP 2020057122A
Authority
JP
Japan
Prior art keywords
operation mode
tactile sensation
display
electronic device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018186292A
Other languages
Japanese (ja)
Inventor
悠一 野元
Yuichi Nomoto
悠一 野元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018186292A priority Critical patent/JP2020057122A/en
Publication of JP2020057122A publication Critical patent/JP2020057122A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

To easily operate a touch UI through only tactile sensation even when a liquid crystal cannot be seen during operation.SOLUTION: An electronic apparatus is configured to include: display means which displays objects to which prescribed functions correspond; a touch sensor; tactile sensation presentation means which presents tactile sensation on a touch surface of the touch sensor; depression detection means which detects a depressing force to the touch surface of the touch sensor; and control means which switches between a first operation mode and a second operation mode.SELECTED DRAWING: Figure 1

Description

本発明は、電子機器及び電子機器の制御方法に関する。   The present invention relates to an electronic device and a control method for the electronic device.

従来、タッチパネルを備えた電子機器を操作する際に、舞台やコンサートなど周囲の環境によって液晶を明るくすることが憚られたり、満員電車など液晶を見ながら操作することが困難なケースがある。このようなタッチパネル上に表示される操作ボタン等が見えない場面では電子機器の操作性が低下する。 Conventionally, when operating an electronic device equipped with a touch panel, there are cases where it is difficult to brighten the liquid crystal depending on the surrounding environment such as a stage or a concert, and it is difficult to operate while watching the liquid crystal such as a crowded train. In such a scene where the operation buttons and the like displayed on the touch panel are not visible, the operability of the electronic device is reduced.

ここで、所定の機能が対応付けられたオブジェクトの表示位置に触感を呈示する触感パネルを備えた電子機器が提供されている。特許文献1では、所定の機能が対応付けられたオブジェクトの表示位置へのタッチを検出したら触感を呈示し、触感が呈示されている時に押し込んで接触の押圧に基づくデータが所定の閾値を満たすと所定の機能を実行する。これにより、意図しない接触による誤操作を軽減しながら、液晶を見なくとも操作することを可能としている。   Here, an electronic device including a tactile panel that provides a tactile sensation at a display position of an object associated with a predetermined function is provided. In Patent Literature 1, when a touch on a display position of an object associated with a predetermined function is detected, a tactile sensation is presented, and when the tactile sensation is presented, the tactile sensation is pressed and data based on the pressing of the contact satisfies a predetermined threshold. Performs a given function. This makes it possible to operate without looking at the liquid crystal while reducing erroneous operations due to unintended contact.

WO2012/108203WO2012 / 108203

しかしながら、上記の特許文献1に開示された技術では、操作ボタンが小さかったり複数の操作ボタンが近い位置に配置されていたりする場合、液晶を見ずに触感だけで操作することは困難である。また、操作者の状態に依らず操作子とタッチパネルの接触時に常に触感を呈示すると、電力の消費が大きくなってしまうという問題がある。   However, according to the technology disclosed in Patent Document 1, when the operation buttons are small or a plurality of operation buttons are arranged at close positions, it is difficult to operate only the tactile sensation without looking at the liquid crystal. Further, if a tactile sensation is always presented when the operator touches the touch panel regardless of the state of the operator, there is a problem that power consumption is increased.

本発明は上記の問題点に鑑み、触感パネルにおいて、誤操作を軽減しながら操作者の状態に応じて必要な時のみ触感を呈示する様に操作モードを切り替えることを目的とする。   In view of the above problems, it is an object of the present invention to switch an operation mode in a tactile panel so as to present a tactile sense only when necessary according to a state of an operator while reducing erroneous operations.

上記の目的を達成するために、本発明は、所定の機能が対応付けられたオブジェクトを表示する表示手段と、タッチセンサと、前記タッチセンサのタッチ面に対して触感を呈示する触感呈示手段と、前記タッチセンサのタッチ面への押圧力を検出する押圧検出手段と、第一の操作モードと第二の操作モードを切り替える制御手段と、を備え、前記第一の操作モードは前記タッチセンサが前記表示手段に表示する前記オブジェクトの表示領域への接触を検出した場合にオブジェクトに応じた動作を実行し、前記第二の操作モードは前記第一の操作モードにおける前記オブジェクトの表示領域よりも大きい領域に対して前記触感呈示手段で触感を呈示し、前記押圧検出手段が触感の呈示領域への押圧力が第一の閾値以上であることを検出した場合にオブジェクトに応じた動作を実行することを特徴とする。   In order to achieve the above object, the present invention provides a display unit that displays an object associated with a predetermined function, a touch sensor, and a tactile sensation providing unit that presents a tactile sensation to a touch surface of the touch sensor. A pressure detection unit that detects a pressing force of the touch sensor on the touch surface, and a control unit that switches between a first operation mode and a second operation mode. When detecting contact with the display area of the object displayed on the display means, the operation corresponding to the object is executed, and the second operation mode is larger than the display area of the object in the first operation mode. When a tactile sensation is presented to the area by the tactile sensation providing means, and the pressing detection means detects that the pressing force to the tactile sensation providing area is equal to or greater than a first threshold value. And executes an operation corresponding to the object.

本発明によれば、タッチパネル操作時に液晶が見えない場合でも、操作モードを切り替えることで触感だけで操作を行うことが容易になる。   According to the present invention, even when the liquid crystal is not visible when operating the touch panel, it is easy to perform the operation only by the tactile sensation by switching the operation mode.

本実施形態による電子機器100の構成例を示すブロック図である。FIG. 2 is a block diagram illustrating a configuration example of an electronic device 100 according to the embodiment. 本実施形態の実施例における動作を説明するフローチャートである。5 is a flowchart illustrating an operation in an example of the present embodiment. 本実施形態の実施例における電子機器の表示処理を説明する図である。FIG. 9 is a diagram illustrating a display process of the electronic device in the example of the present embodiment. 本実施形態の実施例における電子機器の触感呈示処理を説明する図である。FIG. 9 is a diagram illustrating a tactile sensation presentation process of an electronic device in an example of the present embodiment. 本実施形態の実施例における電子機器のパネルの断面を示す図である。It is a figure showing the section of the panel of the electronic equipment in the example of this embodiment.

以下、本発明を実施するための形態について、図面を参照しながら説明する。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

本実施例では、触感パネルにおいて、操作モードを切り替えてモードに応じた表示や触感呈示を行い、ユーザによるタッチ操作で所定の処理を実行する例を述べる。   In the present embodiment, an example will be described in which an operation mode is switched on the tactile panel to perform display and tactile presentation according to the mode, and a predetermined process is executed by a user's touch operation.

まず、図1を参照して、本実施例における電子機器100の構成について説明する。   First, a configuration of an electronic device 100 according to the present embodiment will be described with reference to FIG.

電子機器100としては、スマートフォン、タブレット端末、デジタルカメラ等が挙げられる。本実施形態においては、電子機器100がスマートフォンである場合を例に説明する。   Examples of the electronic device 100 include a smartphone, a tablet terminal, and a digital camera. In the present embodiment, a case where the electronic device 100 is a smartphone will be described as an example.

電子機器100は、CPU101とメモリ102と不揮発性メモリ103と画像処理部104と表示部105と操作部106とタッチセンサ107と触感呈示部108と押圧検出部109と撮像部110と被写体検出部111とバス112によって構成されている。   The electronic device 100 includes a CPU 101, a memory 102, a non-volatile memory 103, an image processing unit 104, a display unit 105, an operation unit 106, a touch sensor 107, a tactile sensation presentation unit 108, a press detection unit 109, an imaging unit 110, and a subject detection unit 111. And a bus 112.

ここで、CPU101、メモリ102、不揮発性メモリ103、画像処理部104、表示部105、操作部106、触感呈示部108、押圧検出部109、撮像部110、被写体検出部111は、バス112を介して接続されている。   Here, the CPU 101, the memory 102, the nonvolatile memory 103, the image processing unit 104, the display unit 105, the operation unit 106, the tactile sensation providing unit 108, the press detection unit 109, the imaging unit 110, and the subject detection unit 111 are connected via a bus 112. Connected.

メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリ等)を有している。   The memory 102 has, for example, a RAM (a volatile memory using a semiconductor element or the like).

不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラム等が格納されている。不揮発性メモリ103は、例えばハードディスク(HD)やROM等を有している。   The non-volatile memory 103 stores image data, audio data, other data, various programs for the CPU 101 to operate, and the like. The nonvolatile memory 103 includes, for example, a hard disk (HD), a ROM, and the like.

CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、電子機器100の各部を制御する。なお、後述する電子機器100の機能や処理は、CPU101が不揮発性メモリ103等に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。   The CPU 101 controls each unit of the electronic device 100 using the memory 102 as a work memory according to a program stored in the nonvolatile memory 103, for example. Note that functions and processes of the electronic device 100 described later are realized by the CPU 101 reading out a program stored in the nonvolatile memory 103 or the like and executing the program.

画像処理部104は、CPU101の制御に基づいて、画像データに対して各種画像処理を施す。画像処理が施される画像データとしては、不揮発性メモリ103に格納された画像データや、撮像部110で撮像された画像データ等がある。画像処理部104が行う画像処理には、A/D変換処理、画像データの符号化処理、複合化処理、圧縮処理、伸長処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理等が含まれる。画像処理部104は、例えば、特定の画像処理を施すための専用の回路ブロックである。また、画像処理の種別によっては、画像処理部104ではなく、CPU101がプログラムに従って画像処理を実行することもできる。   The image processing unit 104 performs various types of image processing on image data based on the control of the CPU 101. Image data to be subjected to image processing includes image data stored in the nonvolatile memory 103, image data captured by the imaging unit 110, and the like. The image processing performed by the image processing unit 104 includes A / D conversion processing, image data encoding processing, compounding processing, compression processing, decompression processing, enlargement / reduction processing (resizing), noise reduction processing, color conversion processing, and the like. Is included. The image processing unit 104 is, for example, a dedicated circuit block for performing specific image processing. Further, depending on the type of image processing, the CPU 101 may execute the image processing according to a program instead of the image processing unit 104.

表示部105は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面等を表示する。CPU101は、プログラムに従い表示制御信号を生成し、表示部105に表示するための映像信号を表示部105に出力するように電子機器100の各部を制御する。そして、表示部105は、出力された映像信号に基づいて映像を表示する。   The display unit 105 displays an image, a GUI screen constituting a GUI (Graphical User Interface), and the like based on the control of the CPU 101. The CPU 101 generates a display control signal according to a program, and controls each unit of the electronic device 100 to output a video signal to be displayed on the display unit 105 to the display unit 105. Then, the display unit 105 displays an image based on the output image signal.

操作部106は、タッチセンサ107等のポインティングデバイス、または釦等、ユーザ操作を受け付けるための入力デバイスである。   The operation unit 106 is a pointing device such as the touch sensor 107 or an input device such as a button for receiving a user operation.

タッチセンサ107は、表示部105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報を出力する入力デバイス(入力面)である。   The touch sensor 107 is an input device (input surface) that is configured to be planar when superimposed on the display unit 105, and that outputs coordinate information according to the touched position.

触感呈示部108は、タッチセンサ107を操作する指等の操作子に与える触感を生成し、操作子に呈示する。すなわち、触感呈示部108は、タッチしている部位を通じて、タッチを行っているユーザが感知可能な刺激を発生させる。触感呈示部108は、接着等によりタッチセンサ107と一体に設けられている。   The tactile sensation presentation unit 108 generates a tactile sensation given to an operator such as a finger that operates the touch sensor 107 and presents it to the operator. That is, the tactile sensation providing unit 108 generates a stimulus that can be sensed by the touching user through the touched part. The tactile sensation providing unit 108 is provided integrally with the touch sensor 107 by bonding or the like.

触感呈示部108は、導電層パネルと絶縁体パネルを有し、CPU101の制御の下、任意の電気的な触感を生成する。ここで、導電層パネルと絶縁体パネルは、タッチセンサ107に重ね合わされ、平面的に設けられている。そして、ユーザが絶縁体パネルに触れると、導電層パネルに正電荷がチャージされる。すなわち、触感呈示部108は、導電層パネルに正電荷をチャージすることにより、電気刺激としての触感を生成することができる。また、触感呈示部108は、ユーザに、クーロン力により皮膚が引っ張られるような感覚(触感)を与えるものであってもよい。また他の例としては、触感呈示部108は、正電荷をチャージするか否かを、パネル上の位置毎に選択可能な導電層パネルを有してもよい。そして、CPU101は、正電荷のチャージ位置を制御する。これにより、触感呈示部108は、ユーザに「ゴツゴツ感」、「ザラザラ感」、「さらさら感」等、様々な触感を与えることができる。   The tactile sensation presentation unit 108 has a conductive layer panel and an insulator panel, and generates an arbitrary electric tactile sensation under the control of the CPU 101. Here, the conductive layer panel and the insulator panel overlap with the touch sensor 107 and are provided in a planar manner. When the user touches the insulator panel, the conductive layer panel is charged with a positive charge. That is, the tactile sensation providing unit 108 can generate a tactile sensation as an electrical stimulus by charging the conductive layer panel with a positive charge. Further, the tactile sensation presentation unit 108 may give the user a feeling (tactile sensation) as if the skin were pulled by Coulomb force. As another example, the tactile sensation providing unit 108 may include a conductive layer panel capable of selecting whether or not to charge a positive charge for each position on the panel. Then, the CPU 101 controls the charge position of the positive charge. Thereby, the tactile sensation presentation unit 108 can give the user various tactile sensations such as “roughness”, “roughness”, and “smoothness”.

また触感呈示部108は、電気刺激としての触感を生成するものに限定されるものではない。他の例としては、触感呈示部108は、触感呈示部108の表面を超音波振動させることにより触感を生成してもよい。超音波振動により、触感呈示部108と指との間に高圧の空気膜が形成される。そこで、触感呈示部108は、この空気膜の浮揚作用により「ツルツル感」を与え、浮揚作用の大きさを瞬時に切り替えることにより「ザラザラ感」を与えてもよい。   Further, the tactile sensation providing unit 108 is not limited to a unit that generates a tactile sensation as an electrical stimulus. As another example, the tactile sensation providing unit 108 may generate a tactile sensation by ultrasonically vibrating the surface of the tactile sensation providing unit 108. Due to the ultrasonic vibration, a high-pressure air film is formed between the tactile sensation providing unit 108 and the finger. Therefore, the tactile sensation providing unit 108 may give a “smooth feeling” by the floating action of the air film, and give a “grainy feeling” by instantly switching the magnitude of the floating action.

押圧検出部109は、接着等によりタッチセンサ107と一体に設けられている。押圧検出部109は、タッチ操作の押圧力に応じてタッチセンサ107が微少量撓む(歪む)ことを利用して、タッチセンサ107に加わる押圧力を検出する。   The pressure detection unit 109 is provided integrally with the touch sensor 107 by bonding or the like. The pressing detection unit 109 detects the pressing force applied to the touch sensor 107 by utilizing the fact that the touch sensor 107 is slightly bent (distorted) according to the pressing force of the touch operation.

ここで、CPU101は、タッチセンサ107において検出されたタッチ位置と、押圧検出部109により検出された押圧力に基づいて、触感を制御することができる。例えば、操作子のタッチ操作に対応し、CPU101が、表示部105に表示されたボタンアイコンに対応するタッチ位置を検出し、押圧検出部109が、所定値以上の押圧力を検出したとする。この場合、CPU101は、一時的な電気刺激を生成する。これにより、ユーザは、あたかも機械的なボタンを押しこんだ際のクリック感のような触感を知覚することができる。   Here, the CPU 101 can control the tactile sensation based on the touch position detected by the touch sensor 107 and the pressing force detected by the pressing detecting unit 109. For example, it is assumed that the CPU 101 detects a touch position corresponding to a button icon displayed on the display unit 105 in response to a touch operation of an operator, and the pressing detection unit 109 detects a pressing force equal to or more than a predetermined value. In this case, the CPU 101 generates a temporary electrical stimulus. This allows the user to perceive a tactile sensation such as a click when a mechanical button is pressed.

さらにCPU101は、ボタンアイコンの位置へのタッチを検出している状態で所定値以上の押圧力を検出した場合にのみ、ボタンアイコンの機能を実行することもできる。すなわち、CPU101は、単にボタンアイコンに触れた場合のように弱い押圧力を検知した場合には、ボタンアイコンの機能を実行しない。これにより、ユーザは、機械的なボタンを押しこんだ際と同じような感覚で操作を行うことができる。   Further, the CPU 101 can execute the function of the button icon only when a pressing force equal to or more than a predetermined value is detected in a state where the touch on the position of the button icon is detected. That is, the CPU 101 does not execute the function of the button icon when detecting a weak pressing force as in the case of simply touching the button icon. Thus, the user can perform an operation with the same feeling as pressing a mechanical button.

なお、押圧検出部109は、他の例として、圧電素子を有してもよい。この場合、押圧検出部109は、押圧に応じて圧電素子から出力される電圧に基づいて、押圧力を検出する。さらに、この場合の押圧検出部109としての圧力素子は、触感呈示部108としての圧力素子と共通であってもよい。   Note that, as another example, the pressure detection unit 109 may include a piezoelectric element. In this case, the pressing detection unit 109 detects the pressing force based on the voltage output from the piezoelectric element according to the pressing. Further, the pressure element as the pressure detection unit 109 in this case may be common to the pressure element as the tactile sensation providing unit 108.

撮像部110は、CCDセンサやCMOSセンサ等の撮像素子、ズームレンズ、フォーカスレンズ、シャッター、絞り、測距部、A/D変換器等を有するカメラユニットである。撮像部110は、静止画及び動画を撮像することができる。撮像部110により撮像された画像の画像データは、画像処理部104に送信され、画像処理部104において、各種処理を施された後、静止画ファイル又は動画ファイルとしてメモリ102又は不揮発性メモリ103に記録される。   The imaging unit 110 is a camera unit having an imaging element such as a CCD sensor or a CMOS sensor, a zoom lens, a focus lens, a shutter, an aperture, a distance measurement unit, an A / D converter, and the like. The imaging unit 110 can capture a still image and a moving image. Image data of an image captured by the imaging unit 110 is transmitted to the image processing unit 104, and after being subjected to various processes in the image processing unit 104, the image data is stored in the memory 102 or the nonvolatile memory 103 as a still image file or a moving image file. Be recorded.

顔検出部111は、画像処理部104で処理した画像データを読み出し、画像中に人物の顔が存在するか否か検出を行う。   The face detection unit 111 reads out the image data processed by the image processing unit 104 and detects whether or not a human face exists in the image.

次に、図1に示した電子機器で取得した被写体画像を基に操作モードを決定し、タッチセンサ107で操作を行うフローを、図2のフローチャートと図3、図4および図5を参照して説明する。   Next, a flow of determining an operation mode based on a subject image acquired by the electronic device shown in FIG. 1 and performing an operation with the touch sensor 107 will be described with reference to the flowchart of FIG. 2 and FIGS. 3, 4, and 5. Will be explained.

図3は、電子機器100の第一の操作モードにおいて表示部105に表示される画面例を示している。図4は、電子機器100の第二の操作モードにおいて触感呈示部108に呈示される触感呈示領域の例を示している。ここでは、電子機器100で音楽再生機能を実行している場合を例とする。図3および図4に示す電子機器100には、撮像部110とパネル301と操作ボタン302が同じ面に配置されている。   FIG. 3 shows an example of a screen displayed on the display unit 105 in the first operation mode of the electronic device 100. FIG. 4 shows an example of a tactile sensation presentation area presented by the tactile sensation presentation unit 108 in the second operation mode of the electronic device 100. Here, an example is described in which the electronic device 100 is executing a music playback function. In the electronic device 100 shown in FIGS. 3 and 4, the imaging unit 110, the panel 301, and the operation buttons 302 are arranged on the same surface.

図5は、パネル301の断面を示している。パネル301は、表示部105とタッチセンサ107、触感呈示部108、押圧検出部109を重ね合わせて一体に構成したものである。タッチセンサ107は、弾性部材からなるインシュレータ501を介して表示部105上に保持される。パネル301は、楽曲情報である画像306や、楽曲再生中に一時停止を行うオブジェクト303、曲送りを行うオブジェクト304、曲戻しを行うオブジェクト305を表示すると同時に、ユーザによるオブジェクト303、304、305へのタッチ入力を受け付ける。オブジェクト303、304、305は、GUIであり、ユーザがオブジェクトの表示領域をタッチすることで、それぞれの機能を実行する。また、パネル301は、網掛状に図示する触感呈示領域403、404、405においてユーザによるタッチに応じて触感を呈示する。   FIG. 5 shows a cross section of the panel 301. The panel 301 includes a display unit 105, a touch sensor 107, a tactile sensation providing unit 108, and a press detection unit 109, which are integrally formed. The touch sensor 107 is held on the display unit 105 via an insulator 501 made of an elastic member. The panel 301 displays an image 306 that is music information, an object 303 that pauses during music reproduction, an object 304 that performs music forwarding, and an object 305 that performs music return, and simultaneously displays objects 303, 304, and 305 by the user. Accepts touch input. The objects 303, 304, and 305 are GUIs, and execute respective functions when the user touches the display area of the object. Further, the panel 301 presents a tactile sensation in the shaded tactile sensation presentation areas 403, 404, and 405 in response to a touch by the user.

ここから、図2のフローチャートについて詳細に説明する。   Now, the flowchart of FIG. 2 will be described in detail.

ステップS201において、撮像部110で被写体を撮像し、画像処理部104で各種画像処理を行った後、入力画像として一時記憶メモリであるメモリ102に記憶する。   In step S201, a subject is imaged by the imaging unit 110, and various image processing is performed by the image processing unit 104, and then stored as an input image in the memory 102, which is a temporary storage memory.

ステップS202において、顔検出部111は、入力画像に対して人物の顔の検出を行い、入力画像中に人物の顔が検出されたかどうかを判定する。本実施例では、顔検出部111は、画像中から人物の顔の画像パターンをテンプレートマッチングによって検出するような構成とする。なお、顔検出部111は、入力画像と予め登録しておいた人物の顔画像との比較を行い、類似度が大きい領域を顔領域として検出するように構成してもよいし、公知の技術を用いても良い。   In step S202, the face detection unit 111 detects a person's face from the input image, and determines whether a person's face is detected in the input image. In the present embodiment, the face detection unit 111 is configured to detect an image pattern of a human face from an image by template matching. The face detection unit 111 may be configured to compare an input image with a face image of a person registered in advance and detect an area having a high degree of similarity as a face area. May be used.

撮像部110は、図3および図4に示す様に、パネル301や操作ボタン302と同じ面に配置されているため、ユーザがパネル301を目視しながら電子機器100を操作する場合、入力画像からは被写体としてユーザの顔が検出される。ステップS202によりユーザの顔が検出された場合は、ステップS203へ進み、以降、電子機器100は第一の操作モードとして動作する。ユーザの顔が検出さなかった場合は、ステップS205へ進み、以降、電子機器100は第二の操作モードとして動作する。   Since the imaging unit 110 is arranged on the same surface as the panel 301 and the operation buttons 302 as shown in FIGS. 3 and 4, when the user operates the electronic device 100 while looking at the panel 301, the input image is Indicates the user's face as a subject. If the user's face is detected in step S202, the process proceeds to step S203, and thereafter, the electronic device 100 operates in the first operation mode. If the user's face has not been detected, the process proceeds to step S205, and thereafter, the electronic device 100 operates in the second operation mode.

ステップS203において、表示部105で、画面表示を行う。ここでは、図3に示す様に、楽曲再生中に一時停止を行うオブジェクト303、曲送りを行うオブジェクト304、曲戻しを行うオブジェクト305、楽曲情報である画像306をパネル301に表示する。   In step S203, the display unit 105 performs screen display. Here, as shown in FIG. 3, an object 303 for performing a pause during music reproduction, an object 304 for performing music advancement, an object 305 for performing music return, and an image 306 as music information are displayed on the panel 301.

ステップS204において、CPU101で、ステップS203で表示した画面の内のいずれかのオブジェクトの表示領域に対してユーザによるタッチ操作を検出したかどうかを判定する。タッチセンサ107は表示部105に重ね合わせて構成されているため、ユーザは、表示部105に表示されている画面内の各種オブジェクトを直感的にタッチすることでタッチ操作を行うことが出来る。タッチセンサ107がユーザによるタッチ操作を検出すると、CPU101はタッチ位置の座標を取得する。さらに、CPU101は、取得した座標がオブジェクトの表示領域内か否かを判定する。例えば、図3に示す例においては、CPU101は、タッチ位置の座標がオブジェクト303、304、305内の座標である場合に、オブジェクトの表示領域に対してユーザがタッチ操作を行ったと判断する。ステップS204によりオブジェクトの表示領域に対するタッチ操作を検出した場合は、ステップS210へ進む。オブジェクトの表示領域に対するタッチ操作が検出されなかった場合は、ステップS201へ進み、再度撮像から処理を行う。   In step S204, the CPU 101 determines whether or not a touch operation by the user has been detected on the display area of any object in the screen displayed in step S203. Since the touch sensor 107 is configured to be superimposed on the display unit 105, the user can perform a touch operation by intuitively touching various objects in the screen displayed on the display unit 105. When the touch sensor 107 detects a touch operation by the user, the CPU 101 acquires the coordinates of the touch position. Further, the CPU 101 determines whether or not the acquired coordinates are within the display area of the object. For example, in the example illustrated in FIG. 3, when the coordinates of the touch position are the coordinates within the objects 303, 304, and 305, the CPU 101 determines that the user has performed a touch operation on the display area of the object. If a touch operation on the display area of the object is detected in step S204, the process proceeds to step S210. If a touch operation on the display area of the object has not been detected, the process proceeds to step S201, and processing is performed again from imaging.

ステップS205において、触感呈示部108で、オブジェクトに相応する触感呈示領域の設定を行う。第一の操作モードにおいてはユーザがタッチ操作を行うオブジェクトとしてオブジェクト303、304、305がパネル301に表示される。これに対し、第二の操作モードでは、第一の操作モードで実行できる機能と同じ機能を実現するために、図4に示す様な触感呈示領域403、404、405を設定する。触感呈示領域403はオブジェクト303に相応する領域であり、一時停止機能が対応付けられている。また、触感呈示領域404はオブジェクト304に相応する領域であり、曲送り機能が対応付けられている。また、触感呈示領域405はオブジェクト305に相応する領域であり、曲戻し機能が対応付けられている。   In step S205, the tactile sensation providing unit 108 sets a tactile sensation providing area corresponding to the object. In the first operation mode, objects 303, 304, and 305 are displayed on panel 301 as objects on which the user performs a touch operation. On the other hand, in the second operation mode, the tactile sensation presentation areas 403, 404, and 405 as shown in FIG. 4 are set in order to realize the same functions as those executable in the first operation mode. The tactile sensation presentation area 403 is an area corresponding to the object 303, and is associated with a pause function. The tactile sensation presentation area 404 is an area corresponding to the object 304, and is associated with a music forwarding function. The tactile sensation presentation area 405 is an area corresponding to the object 305, and is associated with a music return function.

ここで、触感呈示部108は、触感呈示領域403、404、405が相応するオブジェクト303、304、305の表示領域よりも大きい領域になる様に領域設定を行う。さらに、触感呈示部108は、触感呈示領域403、404、405の相対的な位置関係が相応するオブジェクト303、304、305の相対的な位置関係(オブジェクト303の右側にオブジェクト304が表示され、オブジェクト303の左側にオブジェクト305が表示される)と等しくなるように、触感呈示領域404を触感呈示領域403の右側に、触感呈示領域405を触感呈示領域403の左側に設定する。さらに、触感呈示部108は、隣り合う触感呈示領域間の間隔が相応するオブジェクトの表示領域間の間隔よりも広くなるように領域設定を行う。具体的には、オブジェクト303とオブジェクト304の間隔D31よりも、触感呈示領域403と触感呈示領域404の間隔D41が広くなるように触感呈示領域403、404を配置する。同様に、オブジェクト303とオブジェクト305の間隔D32よりも、触感呈示領域403と触感呈示領域405の間隔D42が広くなるように触感呈示領域403、405を配置する。   Here, the tactile sensation providing unit 108 performs area setting so that the tactile sensation providing areas 403, 404, and 405 are larger than the display areas of the corresponding objects 303, 304, and 305. Further, the tactile sensation providing unit 108 displays the relative positional relationship of the objects 303, 304, and 305 corresponding to the relative positional relationship of the tactile sensation providing regions 403, 404, and 405 (the object 304 is displayed on the right side of the object 303, The tactile sensation providing area 404 is set to the right of the tactile sensation providing area 403, and the tactile sensation providing area 405 is set to the left of the tactile sensation providing area 403 so that the object 305 is displayed on the left of the tactile sensation providing area 403. Further, the tactile sensation providing unit 108 sets the area so that the distance between adjacent tactile sensation providing areas is wider than the distance between the display areas of the corresponding objects. Specifically, the tactile sensation providing areas 403 and 404 are arranged so that the distance D41 between the tactile sensation providing area 403 and the tactile sensation providing area 404 is larger than the distance D31 between the objects 303 and 304. Similarly, the tactile sensation providing areas 403 and 405 are arranged so that the distance D42 between the tactile sensation providing area 403 and the tactile sensation providing area 405 is larger than the distance D32 between the objects 303 and 305.

また、図4において図示している網掛の触感呈示領域403、404、405は領域の大きさを説明するためのものであり、実際は、第二の操作モードにおいて表示部105は画面表示を行わない。これは、第二の操作モードはステップS202においてユーザの顔が検出されなかった、つまり、ユーザがパネル301を見ていない状況を前提としているためである。ユーザがパネル301を見ていない場合の不要な画面表示を行わないことにより、画面表示による電力消費を軽減することが出来る。一方、電子機器100の設定や状況に応じては、触感呈示領域403、404、405を確認できるように表示部105で画面表示を行ってもよい。   Further, the shaded tactile sensation presentation areas 403, 404, and 405 illustrated in FIG. 4 are for explaining the sizes of the areas, and the display unit 105 does not actually perform the screen display in the second operation mode. . This is because the second operation mode is based on the premise that no user face is detected in step S202, that is, the user does not look at the panel 301. By not performing unnecessary screen display when the user is not looking at the panel 301, power consumption by screen display can be reduced. On the other hand, depending on the settings and status of the electronic device 100, a screen display may be performed on the display unit 105 so that the tactile sensation presentation areas 403, 404, and 405 can be confirmed.

ステップS206において、CPU101で、ステップS205で設定した触感呈示領域に対してユーザによるタッチ操作を検出したかどうかを判定する。タッチセンサ107がユーザによるタッチ操作を検出すると、CPU101はタッチ位置の座標を取得する。さらに、CPU101は、取得した座標が触感呈示領域内か否かを判定する。例えば、図4に示す例においては、CPU101は、タッチ位置の座標が触感呈示領域403、404、405内の座標である場合に、触感呈示領域に対してユーザがタッチ操作を行ったと判断する。ステップS206により触感呈示領域に対するタッチ操作を検出した場合は、ステップS207へ進む。触感呈示領域に対するタッチ操作が検出されなかった場合は、ステップS201へ進み、再度撮像から処理を行う。   In step S206, the CPU 101 determines whether a touch operation by the user has been detected on the tactile sensation providing area set in step S205. When the touch sensor 107 detects a touch operation by the user, the CPU 101 acquires the coordinates of the touch position. Further, the CPU 101 determines whether or not the acquired coordinates are within the tactile sensation providing area. For example, in the example illustrated in FIG. 4, when the coordinates of the touch position are coordinates in the tactile sensation providing areas 403, 404, and 405, the CPU 101 determines that the user has performed a touch operation on the tactile sensation providing area. If a touch operation on the tactile sensation providing area is detected in step S206, the process proceeds to step S207. If a touch operation on the tactile sensation presentation area has not been detected, the process proceeds to step S201, and processing is again performed from imaging.

ステップS207において、触感呈示部108で、触感の呈示を行う。図4の例では、例えば、ユーザが触感呈示領域403内の座標をタッチすると、タッチ位置に触感が呈示され、ユーザにタッチ位置が一時停止機能を実行するための操作領域であることを通知できる。さらに、触感呈示領域403、404、405にそれぞれ異なる触感を呈示すれば、ユーザは触感だけでどの機能を実行するための操作領域であるか判断することが容易になる。   In step S207, the tactile sensation presentation unit 108 presents a tactile sensation. In the example of FIG. 4, for example, when the user touches the coordinates in the tactile sensation providing area 403, a tactile sensation is provided at the touched position, and the user can be notified that the touched position is an operation area for executing the pause function. . Furthermore, if different tactile sensations are presented in the tactile sensation presentation regions 403, 404, and 405, the user can easily determine which function is to be executed by using only the tactile sensation.

ステップS208において、押圧検出部109で、タッチセンサ107に対する押圧を検出し、その押圧力を押圧値として取得する。   In step S208, the pressing detection unit 109 detects a pressing on the touch sensor 107, and acquires the pressing force as a pressing value.

ステップS209において、CPU101で、ステップS208で取得した押圧値が所定の閾値以上かどうかを判定する。押圧値が所定の閾値以上である場合は、ステップS210へ進む。押圧値が所定の閾値未満である場合は、ステップS201へ進み、再度撮像から処理を行う。   In step S209, the CPU 101 determines whether the pressure value acquired in step S208 is equal to or greater than a predetermined threshold. If the pressure value is equal to or greater than the predetermined threshold, the process proceeds to step S210. If the pressure value is less than the predetermined threshold, the process proceeds to step S201, and the processing is performed again from imaging.

ステップS210において、CPU101で、タッチ位置に相応するオブジェクトに対応付けられた動作を実行する。例えば、第一の操作モードにおいては、パネル301に表示された一時停止を行うオブジェクト303を、ユーザが画面を見ながらタッチすることで、電子機器100での楽曲再生中にCPU101は一時停止の機能を実行する。同様に、第二の操作モードにおいては、ユーザが画面を見ることなくパネル301をタッチし、タッチ位置が触感呈示領域403内で触感を感じた時にタッチ位置を押し込む操作をすることで、電子機器100での楽曲再生中にCPU101は一時停止の機能を実行する。   In step S210, the CPU 101 executes an operation associated with the object corresponding to the touch position. For example, in the first operation mode, when the user touches the object 303 to be paused displayed on the panel 301 while watching the screen, the CPU 101 performs the pause function during the music reproduction on the electronic device 100. Execute Similarly, in the second operation mode, the user touches the panel 301 without looking at the screen, and presses the touch position when the user touches the touch position in the tactile sensation presentation area 403, thereby performing the electronic device operation. While the music is being played back by the CPU 100, the CPU 101 executes the function of pausing.

本実施例に示したように構成された電子機器によれば、触感パネルにおいて、タッチパネル操作時に液晶が見えない場合でも、操作モードを切り替えることで触感だけで操作を行うことが容易になる。   According to the electronic device configured as shown in the present embodiment, even if the liquid crystal is not visible when operating the touch panel on the tactile panel, it is easy to perform the operation only by the tactile sensation by switching the operation mode.

以上、本発明の好ましい実施形態について説明したが、図1に示した電子機器の構成は一例であり、各実施例の動作を実行できるのであれば、本発明に係る電子機器の構成は、図1に示した構成に限定されるものではない。   The preferred embodiment of the present invention has been described above. However, the configuration of the electronic device shown in FIG. 1 is an example, and the configuration of the electronic device according to the present invention is not limited to the configuration shown in FIG. The configuration is not limited to the configuration shown in FIG.

また、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。   The present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the gist.

100 電子機器、101 CPU、102 メモリ、103 不揮発性メモリ、
104 画像処理部、105 表示部、106 操作部、107 タッチセンサ、
108 触感呈示部、109 押圧検出部、110 撮像択部、111 顔検出部、
112 バス
100 electronic equipment, 101 CPU, 102 memory, 103 non-volatile memory,
104 image processing unit, 105 display unit, 106 operation unit, 107 touch sensor,
108 tactile sensation presentation unit, 109 press detection unit, 110 imaging selection unit, 111 face detection unit,
112 bus

Claims (6)

所定の機能が対応付けられたオブジェクトを表示する表示手段と、
タッチセンサと、
前記タッチセンサのタッチ面に対して触感を呈示する触感呈示手段と、
前記タッチセンサのタッチ面への押圧力を検出する押圧検出手段と、
第一の操作モードと第二の操作モードを切り替える制御手段と、を備え、
前記第一の操作モードは前記タッチセンサが前記表示手段に表示する前記オブジェクトの表示領域への接触を検出した場合にオブジェクトに応じた動作を実行し、
前記第二の操作モードは前記第一の操作モードにおける前記オブジェクトの表示領域よりも大きい領域に対して前記触感呈示手段で触感を呈示し、前記押圧検出手段が触感の呈示領域への押圧力が第一の閾値以上であることを検出した場合にオブジェクトに応じた動作を実行することを特徴とする電子機器。
Display means for displaying an object associated with a predetermined function;
A touch sensor,
Tactile sensation providing means for presenting a tactile sensation to the touch surface of the touch sensor,
Press detection means for detecting a pressing force on the touch surface of the touch sensor,
Comprising control means for switching between the first operation mode and the second operation mode,
The first operation mode executes an operation according to the object when the touch sensor detects contact with a display area of the object displayed on the display unit,
In the second operation mode, the tactile sensation providing unit presents a tactile sensation to an area larger than the display area of the object in the first operation mode, and the pressing detection unit applies a pressing force to the tactile sensation providing area. An electronic device that performs an operation according to an object when detecting that the value is equal to or greater than a first threshold.
前記表示手段は、前記第二の操作モードにおいてオブジェクトの表示を行わないことを特徴とする請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the display unit does not display an object in the second operation mode. 被写体を撮像する撮像手段と、
前記撮像手段で撮像した被写体画像から被写体を検出する被写体検出手段と、をさらに備え、
前記被写体検出手段で被写体が検出された場合に前記制御手段は操作モードを前記第一の操作モードに切り替え、
前記被写体検出手段で被写体が検出されない場合に前記制御手段は操作モードを前記第二の操作モードに切り替えることを特徴とする請求項1に記載の電子機器。
Imaging means for imaging a subject;
Subject detection means for detecting a subject from a subject image captured by the imaging means,
When a subject is detected by the subject detection means, the control means switches an operation mode to the first operation mode,
2. The electronic apparatus according to claim 1, wherein the control unit switches the operation mode to the second operation mode when the subject is not detected by the subject detection unit.
前記表示手段の輝度を設定する輝度設定手段をさらに備え、
輝度が第二の閾値以上に設定された場合に前記制御手段は操作モードを前記第一の操作モードに切り替え、
輝度が第二の閾値未満に設定された場合に前記制御手段は操作モードを前記第二の操作モードに切り替えることを特徴とする請求項1に記載の電子機器。
Further comprising a brightness setting means for setting the brightness of the display means,
The control means switches the operation mode to the first operation mode when the brightness is set to a second threshold or more,
The electronic device according to claim 1, wherein the control unit switches the operation mode to the second operation mode when the luminance is set to be less than the second threshold.
前記触感呈示手段は、
オブジェクトが複数ある場合に、前記第二の操作モードにおいて前記触感呈示手段が呈示する複数の触感の呈示領域を、前記第一の操作モードにおいて前記表示手段が表示する前記複数のオブジェクトの表示領域の位置関係と同じ位置関係になるように呈示することを特徴とする請求項1に記載の電子機器。
The tactile sensation providing means,
When there are a plurality of objects, a plurality of tactile sensation presentation areas presented by the tactile sensation presentation means in the second operation mode are displayed in the plurality of object display areas displayed by the display means in the first operation mode. The electronic device according to claim 1, wherein the electronic device is presented so as to have the same positional relationship as the positional relationship.
前記触感呈示手段は、
オブジェクトが複数ある場合に、前記第二の操作モードにおいて呈示する複数の触感の呈示領域の間隔を、前記第一の操作モードにおいて前記表示手段が表示する前記複数のオブジェクトの表示領域の間隔よりも広くなるように呈示することを特徴とする請求項1に記載の電子機器。
The tactile sensation providing means,
When there are a plurality of objects, the interval between the plurality of tactile presentation areas to be presented in the second operation mode is longer than the interval between the display areas of the plurality of objects displayed by the display means in the first operation mode. The electronic device according to claim 1, wherein the electronic device is presented so as to be wide.
JP2018186292A 2018-10-01 2018-10-01 Electronic apparatus Pending JP2020057122A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018186292A JP2020057122A (en) 2018-10-01 2018-10-01 Electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018186292A JP2020057122A (en) 2018-10-01 2018-10-01 Electronic apparatus

Publications (1)

Publication Number Publication Date
JP2020057122A true JP2020057122A (en) 2020-04-09

Family

ID=70107991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018186292A Pending JP2020057122A (en) 2018-10-01 2018-10-01 Electronic apparatus

Country Status (1)

Country Link
JP (1) JP2020057122A (en)

Similar Documents

Publication Publication Date Title
US9507422B2 (en) Image processing device, tactile sense control method, and recording medium
US10248204B2 (en) Tactile stimulus control apparatus, tactile stimulus control method, and storage medium
US9250790B2 (en) Information processing device, method of processing information, and computer program storage device
US20150261296A1 (en) Electronic apparatus, haptic feedback control method, and program
US9524026B2 (en) Portable apparatus, control method and program
US20070040810A1 (en) Touch controlled display device
US20150192997A1 (en) Information processing apparatus, information processing method, and program
US9710062B2 (en) Electronic apparatus and method for controlling electronic apparatus to provide tactile sensation feedback
JP2015118605A (en) Tactile control device, tactile control method, and program
US20150192998A1 (en) Tactile sense control apparatus, tactile sense control method, and storage medium
KR102187236B1 (en) Preview method of picture taken in camera and electronic device implementing the same
US9621809B2 (en) Display control apparatus and method for controlling the same
JP2020057122A (en) Electronic apparatus
JP2016009315A (en) Tactile sense control device, tactile sense control method, and program
CN116916152A (en) Electronic device, control method, and storage medium
JP6433144B2 (en) Electronic device, tactile sensation control method, and program
US20150205356A1 (en) Electronic apparatus, control method therefor and program
CN105718108A (en) Interface operation method and mobile terminal
US11010045B2 (en) Control apparatus, control method, and non-transitory computer readable medium
Yamawaki et al. A wearable supporting system for visually impaired people in operating capacitive touchscreen
JP2016009206A (en) Image processing apparatus and image processing method
US10725571B2 (en) Electronic apparatus, control method, and storage medium
JP2017010470A (en) Electronic equipment

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20191125