JP6433144B2 - Electronic device, tactile sensation control method, and program - Google Patents

Electronic device, tactile sensation control method, and program Download PDF

Info

Publication number
JP6433144B2
JP6433144B2 JP2014087722A JP2014087722A JP6433144B2 JP 6433144 B2 JP6433144 B2 JP 6433144B2 JP 2014087722 A JP2014087722 A JP 2014087722A JP 2014087722 A JP2014087722 A JP 2014087722A JP 6433144 B2 JP6433144 B2 JP 6433144B2
Authority
JP
Japan
Prior art keywords
tactile sensation
eyepiece
display
touch
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014087722A
Other languages
Japanese (ja)
Other versions
JP2015207175A (en
Inventor
孝一 岡田
孝一 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014087722A priority Critical patent/JP6433144B2/en
Publication of JP2015207175A publication Critical patent/JP2015207175A/en
Application granted granted Critical
Publication of JP6433144B2 publication Critical patent/JP6433144B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Description

本発明は、電子機器、触感制御方法プログラム及び記憶媒体に関する。 The present invention relates to an electronic device, a tactile sensation control method , a program, and a storage medium .

近年、表示装置と入力装置を兼ねたタッチパネルを備えた電子機器が多くなってきているが、より使いやすくてわかりやすいユーザインターフェースを提供することが商品性の向上につながることから、様々な工夫が行われている。
その中の一つに、操作をしたときに指先に触感を与えることによって、操作を行ったことをフィードバックする技術がある。触感フィードバックを用いることにより、ユーザは操作したことを視覚的に理解するだけではなく、指先の感覚としても理解することができるようになるため、より直観的な操作を行うことができるようになる。
触感フィードバックは、操作したことを通知する目的の他に、ユーザに何かを通知するような目的でも利用することができる。特許文献1には、タッチパネルを操作しているときの操作位置を検出して、操作位置が所定のエリア外に移動した場合に振動を与える技術が開示されている。特許文献2には、操作してはならないボタンを操作したことを通知するために振動を与える技術が開示されている。
In recent years, there are an increasing number of electronic devices equipped with a touch panel that serves as both a display device and an input device. However, providing more user-friendly and easy-to-understand user interfaces leads to an improvement in merchantability, so various measures have been taken. It has been broken.
One of them is a technology that feeds back the operation by giving a tactile sensation to the fingertip when the operation is performed. By using tactile feedback, the user not only visually understands the operation, but also understands it as a fingertip sensation, so that a more intuitive operation can be performed. .
The tactile feedback can be used not only for the purpose of notifying that the operation has been performed but also for the purpose of notifying the user of something. Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for detecting an operation position when operating a touch panel and applying vibration when the operation position moves out of a predetermined area. Patent Document 2 discloses a technique for applying vibration to notify that a button that should not be operated has been operated.

特許第3935271号公報Japanese Patent No. 3935271 特開2007−282083号公報JP 2007-282083 A

電子機器の中には、例えば、表示装置と入力装置を兼ねたタッチパネル式のLCDパネルと、表示装置としてのEVF(電子ビューファインダ)とを備えたビデオカメラのように、複数の表示装置を備えるものもある。このように、複数の表示装置を備えた電子機器において、触感フィードバックを用いた、使い勝手のよいユーザインターフェースの提供が望まれている。   Some electronic devices include a plurality of display devices such as a video camera including a touch panel type LCD panel that also serves as a display device and an input device, and an EVF (electronic viewfinder) as a display device. There are also things. As described above, it is desired to provide an easy-to-use user interface using tactile feedback in an electronic device including a plurality of display devices.

本発明はこのような問題点に鑑みなされたもので、複数の表示装置を備えた電子機器において、触感フィードバックを用いた、使い勝手のよいユーザインターフェースを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an easy-to-use user interface using tactile feedback in an electronic device including a plurality of display devices.

そこで、本発明は、電気機器であって、撮像手段と、第1の表示手段と、前記第1の表示手段とは異なる位置に配置される電子ファインダとしての第2の表示手段と、前記第2の表示手段に対する接眼を検出する接眼検出手段と、前記第1の表示手段に対応して設けられた入力面への操作子による操作を検知する第1の検知手段と、前記操作子に振動を与える第1の触感と、前記第1の触感とは異なる触感であって前記操作子に振動を与える第2の触感と、前記第1の触感および前記第2の触感とは異なる触感であって前記操作子に振動を与える第3の触感とを生成する触感生成手段とを有し、前記触感生成手段は、前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示されたボタンの領域外をタッチしたことが検知された場合には触感を生成せず、前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内をタッチしたことが検知された場合には前記第1の触感を生成し、前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域外であって前記ボタンの周囲を取り囲むように設定された領域内にタッチしたことが検知された場合には前記第2の触感を生成し、前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの周囲を取り囲むように設定された領域の外にタッチしたことが検知された場合には触感を生成せず前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内にタッチしたことが検知された場合には前記第3の触感を生成することを特徴とする。 Therefore, the present invention is an electrical apparatus, which is an imaging unit, a first display unit, a second display unit as an electronic viewfinder disposed at a position different from the first display unit, and the first display unit . Eyepiece detecting means for detecting an eyepiece to the second display means, first detection means for detecting an operation by an operator on an input surface provided corresponding to the first display means, and vibration on the operator a first touch giving a second tactile giving vibration to the operator from the first touch to a different touch, there a different feel from that of the first touch and the second touch And a tactile sensation generating unit that generates a third tactile sensation that applies vibration to the manipulator, and the tactile sensation generating unit detects that the eyepiece is not detected by the eyepiece detection unit, and the first detection unit As the operation, the operation element displays the first display. When it is detected that a touch outside the area of the button displayed in the row is detected, no tactile sensation is generated, and an eyepiece is not detected by the eyepiece detection unit, and the operation is performed by the first detection unit as the operation. When it is detected that the operator has touched the area of the button displayed on the first display means, the first tactile sensation is generated, the eye detection is detected by the eye detection means, and the first touch is detected. It is detected by the one detection means that the operation element has touched the area outside the button area displayed on the first display means and set to surround the button as the operation. The second tactile sensation is generated, an eyepiece is detected by the eyepiece detection means, and the operation element is displayed on the first display means as the operation by the first detection means. When it is detected that a touch outside the area set to surround the tongue is detected, the eye detection unit detects the eye contact without generating a tactile sensation, and the first detection unit performs the operation as the operation. The third tactile sensation is generated when it is detected that the operator has touched the area of the button displayed on the first display means .

本発明によれば、複数の表示装置を備えた電子機器において、触感フィードバックを用いた、使い勝手のよいユーザインターフェースを提供することができる。   According to the present invention, it is possible to provide an easy-to-use user interface using tactile feedback in an electronic device including a plurality of display devices.

デジタルカメラを示す図である。It is a figure which shows a digital camera. 触感制御処理を示すフローチャートである。It is a flowchart which shows a tactile sensation control process. LCDパネルの画面例を示す図である。It is a figure which shows the example of a screen of an LCD panel. 第1の表示制御処理を示すフローチャートである。It is a flowchart which shows a 1st display control process. 第2の表示制御処理を示すフローチャートである。It is a flowchart which shows a 2nd display control process. 第2の表示制御処理を説明するための図である。It is a figure for demonstrating a 2nd display control process. 変更例に係る、第2の表示制御処理を示すフローチャートである。It is a flowchart which shows the 2nd display control process based on the example of a change. 変更例に係る第2の表示制御処理を説明するための図である。It is a figure for demonstrating the 2nd display control process which concerns on the example of a change. 第2の実施形態に係る触感制御処理を示すフローチャートである。It is a flowchart which shows the tactile sense control process which concerns on 2nd Embodiment. 第3の実施形態に係る触感制御処理を示すフローチャートである。It is a flowchart which shows the tactile sense control process which concerns on 3rd Embodiment. LCDパネルの表示例を示す図である。It is a figure which shows the example of a display of a LCD panel. 第4の実施形態に係る触感制御処理を示すフローチャートである。It is a flowchart which shows the tactile sense control process which concerns on 4th Embodiment.

以下、本発明の実施形態について図面に基づいて説明する。
図1は、電子機器100を示す図である。電子機器100としては、携帯電話、デジタルカメラ、デジタルビデオカメラ、スマートフォン等が挙げられる。なお、本実施形態においては、電子機器100は、2つの画面を有するものとする。以下においては、電子機器100がデジタルビデオカメラである場合を例に説明する。
図1に示すように電子機器100は、CPU101、メモリ102、不揮発性メモリ103、画像処理部104、LCDパネル112、操作部106、記録媒体I/F107、外部I/F109、通信I/F110及び撮像部105を有している。電子機器100はまた、LCDパネル112、LCDパネル切換部113、EVF(電子ファインダ)114、EVF切換部115、切換検出部116、接眼検知部117、荷重検出部121、パネル触感生成部122及び筐体触感生成部123を有している。これら各部は、内部バス150に接続され、内部バス150を介して互いにデータのやりとりを行うことができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an electronic device 100. Examples of the electronic device 100 include a mobile phone, a digital camera, a digital video camera, and a smartphone. In the present embodiment, the electronic device 100 has two screens. Hereinafter, a case where the electronic apparatus 100 is a digital video camera will be described as an example.
As shown in FIG. 1, the electronic device 100 includes a CPU 101, a memory 102, a nonvolatile memory 103, an image processing unit 104, an LCD panel 112, an operation unit 106, a recording medium I / F 107, an external I / F 109, a communication I / F 110, and An imaging unit 105 is included. The electronic device 100 also includes an LCD panel 112, an LCD panel switching unit 113, an EVF (electronic finder) 114, an EVF switching unit 115, a switching detection unit 116, an eyepiece detection unit 117, a load detection unit 121, a panel tactile sensation generation unit 122, and a housing. A touch generation unit 123 is provided. These units are connected to the internal bus 150, and can exchange data with each other via the internal bus 150.

メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリ等)を有している。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、電子機器100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラム等が格納されている。不揮発性メモリ103は、例えばハードディスク(HD)やROM等を有している。
なお、後述する電子機器100の機能や処理は、CPU101が不揮発性メモリ103等に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
The memory 102 includes, for example, a RAM (a volatile memory using a semiconductor element). The CPU 101 controls each unit of the electronic device 100 using the memory 102 as a work memory, for example, according to a program stored in the nonvolatile memory 103. The nonvolatile memory 103 stores image data, audio data, other data, various programs for operating the CPU 101, and the like. The non-volatile memory 103 has, for example, a hard disk (HD), a ROM, and the like.
Note that the functions and processing of the electronic device 100 to be described later are realized by the CPU 101 reading a program stored in the nonvolatile memory 103 or the like and executing the program.

画像処理部104は、CPU101の制御に基づいて、画像データに対して各種画像処理を施す。画像処理が施される画像データとしては、不揮発性メモリ103や記録媒体108に格納された画像データ、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像データ、撮像部105で撮像された画像データ等がある。
画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理等が含まれる。画像処理部104は、例えば、特定の画像処理を施すための専用の回路ブロックである。また、画像処理の種別によっては、画像処理部104ではなく、CPU101がプログラムに従って画像処理を実行することもできる。
The image processing unit 104 performs various image processing on the image data based on the control of the CPU 101. Image data to be subjected to image processing includes image data stored in the non-volatile memory 103 and the recording medium 108, a video signal acquired through the external I / F 109, image data acquired through the communication I / F 110, There are image data captured by the imaging unit 105 and the like.
The image processing performed by the image processing unit 104 includes A / D conversion processing, D / A conversion processing, image data encoding processing, compression processing, decoding processing, enlargement / reduction processing (resizing), noise reduction processing, and color conversion. Processing etc. are included. The image processing unit 104 is a dedicated circuit block for performing specific image processing, for example. Also, depending on the type of image processing, the CPU 101 can execute image processing according to a program instead of the image processing unit 104.

LCDパネル112とEVF114は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面等を表示する。CPU101は、プログラムに従い表示制御信号を生成し、LCDパネル112に表示するための映像信号を生成しLCDパネル112に出力するように電子機器100の各部を制御する。CPU101は、またプログラムに従い表示制御信号を生成し、EVF114に表示するための映像信号を生成しEVF114に出力するように電子機器100の各部を制御する。そして、LCDパネル112とEVF114は、出力された映像信号に基づいて映像を表示する。
LCDパネル切換部113及びEVF切換部115は、LCDパネル112及びEVF114を排他的に使用する場合や、一方を使用しない場合の制御等の目的のため、それぞれLCDパネル112及びEVF114への映像の出力及び出力停止を制御する。切換検出部116は、LCDパネル切換部113及びEVF切換部115の切り換えを行うための情報を取得するための検出部である。LCDパネル112及びEVF114の制御としては、LCDパネル112の開閉検出に応じた排他制御、EVF114の引き出し検出に応じた排他制御、EVF114への接眼検出に応じた排他制御等が挙げられる。
なお、他の例としては、電子機器100は、LCDパネル112及びEVF114を有さず、LCDパネル112やEVF114に表示させる映像信号を出力するためのインターフェースを有することとしてもよい。この場合に、電子機器100は、外付けのモニタ(テレビ等)に対し画像等を表示するものとする。
The LCD panel 112 and the EVF 114 display an image, a GUI screen configuring a GUI (Graphical User Interface), and the like based on the control of the CPU 101. The CPU 101 generates a display control signal according to a program, controls each unit of the electronic device 100 so as to generate a video signal to be displayed on the LCD panel 112 and output it to the LCD panel 112. The CPU 101 also generates a display control signal according to the program, controls each part of the electronic device 100 so as to generate a video signal for display on the EVF 114 and output the generated video signal to the EVF 114. Then, the LCD panel 112 and the EVF 114 display a video based on the output video signal.
The LCD panel switching unit 113 and the EVF switching unit 115 output images to the LCD panel 112 and the EVF 114 for the purpose of controlling when the LCD panel 112 and the EVF 114 are used exclusively or not using one, respectively. And control output stop. The switching detection unit 116 is a detection unit for acquiring information for switching the LCD panel switching unit 113 and the EVF switching unit 115. Examples of the control of the LCD panel 112 and the EVF 114 include exclusive control according to detection of opening / closing of the LCD panel 112, exclusive control according to detection of drawing out of the EVF 114, exclusive control according to detection of eye contact with the EVF 114, and the like.
As another example, electronic device 100 may have an interface for outputting a video signal to be displayed on LCD panel 112 or EVF 114 without having LCD panel 112 and EVF 114. In this case, the electronic device 100 displays an image or the like on an external monitor (such as a television).

操作部106は、キーボード等の文字情報入力デバイスや、マウスやタッチパネル120等ポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッド等、ユーザ操作を受け付けるための入力デバイスである。タッチパネル120は、LCDパネル112に重ね合わせて平面的に構成され、接触された位置に応じた座標情報を出力する入力デバイス(入力面)である。
記憶媒体I/F107には、メモリーカードやCD、DVD等の記録媒体108が装着可能である。記憶媒体I/F107は、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出しや、装着された記録媒体108へのデータの書き込みを行う。
The operation unit 106 is an input device for accepting user operations such as a character information input device such as a keyboard, a pointing device such as a mouse and a touch panel 120, a button, a dial, a joystick, a touch sensor, and a touch pad. The touch panel 120 is an input device (input surface) that is configured to overlap with the LCD panel 112 and output coordinate information corresponding to the touched position.
A recording medium 108 such as a memory card, CD, or DVD can be attached to the storage medium I / F 107. The storage medium I / F 107 reads data from the loaded recording medium 108 and writes data to the loaded recording medium 108 based on the control of the CPU 101.

外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111等と通信(電話通信を含む)して、ファイルやコマンド等の各種データの送受信を行うためのインターフェースである。
撮像部105は、CCDセンサやCMOSセンサ等の撮像素子、ズームレンズ、フォーカスレンズ、シャッター、絞り、測距部、A/D変換器等を有するカメラユニットである。撮像部105は、静止画及び動画を撮像することができる。撮像部105により撮像された画像の画像データは、画像処理部104に送信され、画像処理部104において、各種処理を施された後、静止画ファイル又は動画ファイルとして記録媒体108に記録される。
接眼検知部117は、操作者がEVF114を覗いていることを検知するためのセンサである。接眼検知部117は、EVF114近傍に設けられた赤外発光装置と、その反射光を検出する受講装置とを含んでいる。
The external I / F 109 is an interface that is connected to an external device by a wired cable or wirelessly to input / output a video signal or an audio signal. The communication I / F 110 is an interface for communicating with an external device, the Internet 111, etc. (including telephone communication) and transmitting / receiving various data such as files and commands.
The imaging unit 105 is a camera unit having an imaging element such as a CCD sensor or a CMOS sensor, a zoom lens, a focus lens, a shutter, a diaphragm, a distance measuring unit, an A / D converter, and the like. The imaging unit 105 can capture still images and moving images. The image data of the image captured by the image capturing unit 105 is transmitted to the image processing unit 104, subjected to various processes in the image processing unit 104, and then recorded on the recording medium 108 as a still image file or a moving image file.
The eyepiece detection unit 117 is a sensor for detecting that the operator is looking into the EVF 114. The eyepiece detection unit 117 includes an infrared light emitting device provided in the vicinity of the EVF 114 and a student device that detects the reflected light.

CPU101は、タッチパネル120から出力されたタッチ位置の座標情報を、内部バス150を介して受信する。そして、CPU101は、座標情報に基づいて、以下の操作や状態を検出する。
・タッチパネル120を指やペンで触れる操作(以下、タッチダウンと称する)。
・タッチパネル120を指やペンで触れている状態(以下、タッチオンと称する)。
・タッチパネル120を指やペンで触れたまま移動する操作(以下、ムーブと称する)。
・タッチパネル120へ触れていた指やペンを離す操作(以下、タッチアップと称する)。
・タッチパネル120に何も触れていない状態(以下、タッチオフと称する)。
CPU101はさらに、ムーブを検出した場合には、タッチ位置の座標変化に基づいて、指やペンの移動方向を判定する。具体的には、CPU101は、タッチパネル120上における移動方向の垂直成分及び水平成分それぞれを判定する。
The CPU 101 receives the coordinate information of the touch position output from the touch panel 120 via the internal bus 150. Then, the CPU 101 detects the following operations and states based on the coordinate information.
An operation of touching the touch panel 120 with a finger or a pen (hereinafter referred to as touchdown).
A state where the touch panel 120 is touched with a finger or a pen (hereinafter referred to as touch-on).
An operation of moving the touch panel 120 while touching it with a finger or a pen (hereinafter referred to as a move).
An operation of releasing a finger or pen that has been touching the touch panel 120 (hereinafter referred to as touch-up).
A state in which nothing touches the touch panel 120 (hereinafter referred to as touch-off).
Further, when the CPU 101 detects a move, the CPU 101 determines the moving direction of the finger or pen based on the coordinate change of the touch position. Specifically, the CPU 101 determines a vertical component and a horizontal component in the moving direction on the touch panel 120.

CPU101はまた、ストローク、フリック及びドラッグの各操作を検出する。CPU101は、タッチダウンから一定のムーブを経てタッチアップが行われた場合に、ストロークを検出する。CPU101は、所定距離以上且つ所定速度以上のムーブが検出され、続けてタッチアップが検出された場合に、フリックを検出する。CPU101はまた、所定距離以上且つ所定速度未満のムーブが検出された場合に、ドラッグを検出する。
なお、フリックは、タッチパネル120上に指を触れたまま、ある程度の距離だけ素早く動かし、そのまま指をタッチパネル120から離す操作である。すなわち、フリックは、タッチパネル120上を指ではじくように素早くなぞる操作である。
The CPU 101 also detects stroke, flick, and drag operations. The CPU 101 detects a stroke when touch-up is performed through a certain move from touch-down. The CPU 101 detects a flick when a move of a predetermined distance or more and a predetermined speed or more is detected and a touch-up is subsequently detected. The CPU 101 also detects a drag when a move greater than a predetermined distance and less than a predetermined speed is detected.
Note that the flick is an operation of quickly moving a certain distance while touching the finger on the touch panel 120 and releasing the finger from the touch panel 120 as it is. That is, the flick is an operation of quickly tracing the touch panel 120 with a finger.

タッチパネル120は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
荷重検出部121は、接着等によりタッチパネル120と一体に設けられている。荷重検出部121は、歪みゲージセンサであり、タッチ操作の押圧力に応じてタッチパネル120が微少量撓む(歪む)ことを利用して、タッチパネル120に加わる荷重(押圧力)を検出する。他の例としては、荷重検出部121は、LCDパネル112と一体に設けられてもよい。この場合、荷重検出部121は、LCDパネル112を介して、タッチパネル120に加わる荷重を検出する。
The touch panel 120 may be any of various types of touch panels such as a resistive film type, a capacitance type, a surface acoustic wave type, an infrared type, an electromagnetic induction type, an image recognition type, and an optical sensor type. good.
The load detection unit 121 is provided integrally with the touch panel 120 by adhesion or the like. The load detection unit 121 is a strain gauge sensor, and detects a load (pressing force) applied to the touch panel 120 by utilizing the fact that the touch panel 120 is bent (distorted) by a small amount according to the pressing force of the touch operation. As another example, the load detection unit 121 may be provided integrally with the LCD panel 112. In this case, the load detection unit 121 detects a load applied to the touch panel 120 via the LCD panel 112.

パネル触感生成部122は、タッチパネル120を操作する指やペン等の操作子に与える触感を生成する。すなわち、パネル触感生成部122は、タッチしている部位を通じて、タッチを行っているユーザが感知可能な刺激を発生させる。パネル触感生成部122は、接着等によりタッチパネル120と一体に設けられている。パネル触感生成部122は、圧電(ピエゾ)素子、より具体的には圧電振動子であり、CPU101の制御の下、任意の振幅及び周波数で振動する。これにより、タッチパネル120が湾曲振動し、タッチパネル120の振動が操作子に触感として伝わる。すなわち、パネル触感生成部122は、自身が振動することにより、操作子に触感を与えるものである。
他の例としては、パネル触感生成部122は、LCDパネル112と一体に設けられていてもよい。この場合、パネル触感生成部122は、LCDパネル112を介して、タッチパネル120を湾曲振動させる。
The panel tactile sensation generating unit 122 generates a tactile sensation to be given to an operator such as a finger or a pen that operates the touch panel 120. That is, the panel tactile sensation generating unit 122 generates a stimulus that can be sensed by the touching user through the touched part. The panel touch generation unit 122 is provided integrally with the touch panel 120 by adhesion or the like. The panel tactile sensation generating unit 122 is a piezoelectric element, more specifically, a piezoelectric vibrator, and vibrates with an arbitrary amplitude and frequency under the control of the CPU 101. Thereby, the touch panel 120 is curved and vibrated, and the vibration of the touch panel 120 is transmitted to the operator as a tactile sensation. That is, the panel tactile sensation generating unit 122 gives a tactile sensation to the operation element by vibrating itself.
As another example, the panel touch generation unit 122 may be provided integrally with the LCD panel 112. In this case, the panel touch generation unit 122 causes the touch panel 120 to bend and vibrate via the LCD panel 112.

なお、CPU101は、パネル触感生成部122の振幅及び周波数を変更し、様々なパターンでパネル触感生成部122を振動させることにより、様々なパターンの触感を生成させることができる。   The CPU 101 can generate various patterns of tactile sensations by changing the amplitude and frequency of the panel tactile sensation generating section 122 and vibrating the panel tactile sensation generating section 122 with various patterns.

また、CPU101は、タッチパネル120において検出されたタッチ位置と、荷重検出部121により検出された押圧力に基づいて、触感を制御することができる。例えば、操作子のタッチ操作に対応し、CPU101が、LCDパネル112に表示されたボタンアイコンに対応するタッチ位置を検出し、荷重検出部121が、所定値以上の押圧力を検出したとする。この場合、CPU101は、1周期前後の振動を生成する。これにより、ユーザは、あたかも機械的なボタンを押しこんだ際のクリック感のような触感を知覚することができる。
さらにCPU101は、ボタンアイコンの位置へのタッチを検出している状態で所定値以上の押圧力を検出した場合にのみ、ボタンアイコンの機能を実行するものとする。すなわち、CPU101は、単にボタンアイコンに触れた場合のように弱い押圧力を検知した場合には、ボタンアイコンの機能を実行しない。これにより、ユーザは、機械的なボタンを押しこんだ際と同じような感覚で操作を行うことができる。
なお、荷重検出部121は、歪みゲージセンサに限定されるものではない。他の例としては、荷重検出部121は、圧電素子を有してもよい。この場合、荷重検出部121は、押圧力に応じて圧電素子から出力される電圧に基づいて、荷重を検出する。さらに、この場合の荷重検出部121としての圧力素子は、パネル触感生成部122としての圧力素子と共通であってもよい。
Further, the CPU 101 can control the tactile sensation based on the touch position detected on the touch panel 120 and the pressing force detected by the load detection unit 121. For example, it is assumed that the CPU 101 detects the touch position corresponding to the button icon displayed on the LCD panel 112 in response to the touch operation of the operator, and the load detection unit 121 detects a pressing force equal to or greater than a predetermined value. In this case, the CPU 101 generates vibrations around one cycle. As a result, the user can perceive a tactile sensation such as a click feeling when pressing a mechanical button.
Further, the CPU 101 executes the function of the button icon only when the pressing force of a predetermined value or more is detected in a state where the touch to the position of the button icon is detected. That is, the CPU 101 does not execute the button icon function when a weak pressing force is detected, such as when the button icon is simply touched. Thereby, the user can perform an operation with the same feeling as when pressing a mechanical button.
The load detection unit 121 is not limited to a strain gauge sensor. As another example, the load detection unit 121 may include a piezoelectric element. In this case, the load detection unit 121 detects the load based on the voltage output from the piezoelectric element according to the pressing force. Further, the pressure element as the load detection unit 121 in this case may be the same as the pressure element as the panel tactile sensation generation unit 122.

また、パネル触感生成部122は、圧力素子による振動を生成するものに限定されるものではない。他の例としては、パネル触感生成部122は、電気的な触感を生成するものであってもよい。例えば、パネル触感生成部122は、導電層パネルと絶縁体パネルを有する。ここで、導電層パネルと絶縁体パネルは、タッチパネル120と同様に、LCDパネル112に重ね合わされ、平面的に設けられている。そして、ユーザが絶縁体パネルに触れると、導電層パネルに正電荷がチャージされる。すなわち、パネル触感生成部122は、導電層パネルに正電荷をチャージすることにより、電気刺激としての触感を生成することができる。また、パネル触感生成部122は、ユーザに、クーロン力により皮膚が引っ張られるような感覚(触感)を与えるものであってもよい。
また他の例としては、パネル触感生成部122は、正電荷をチャージするか否かを、パネル上の位置毎に選択可能な導電層パネルを有してもよい。そして、CPU101は、正電荷のチャージ位置を制御する。これにより、パネル触感生成部122は、ユーザに「ゴツゴツ感」、「ザラザラ感」、「さらさら感」等、様々な触感を与えることができる。
また、他の例としては、パネル触感生成部122は、タッチパネル120の表面を超音波振動させることにより触感を生成してもよい。超音波振動により、タッチパネル120と指との間に高圧の空気膜が形成される。そこで、パネル触感生成部122は、この空気膜の浮揚作用により「ツルツル感」を与え、浮揚作用の大きさを瞬時に切り替えることにより「ザラザラ感」を与えてもよい。
Further, the panel tactile sensation generating unit 122 is not limited to the one that generates vibration by the pressure element. As another example, the panel tactile sensation generating unit 122 may generate an electric tactile sensation. For example, the panel tactile sensation generating unit 122 includes a conductive layer panel and an insulator panel. Here, like the touch panel 120, the conductive layer panel and the insulator panel are overlapped with the LCD panel 112 and provided in a plane. When the user touches the insulator panel, a positive charge is charged in the conductive layer panel. That is, the panel tactile sensation generating unit 122 can generate a tactile sensation as an electrical stimulus by charging the conductive layer panel with a positive charge. The panel tactile sensation generating unit 122 may give the user a feeling (tactile sensation) that the skin is pulled by the Coulomb force.
As another example, the panel tactile sensation generator 122 may include a conductive layer panel that can select whether to charge a positive charge for each position on the panel. Then, the CPU 101 controls the positive charge position. As a result, the panel tactile sensation generating unit 122 can give the user various tactile sensations such as a “cracking sensation”, “gritty feel”, and “smooth feeling”.
As another example, the panel tactile sensation generator 122 may generate a tactile sensation by ultrasonically vibrating the surface of the touch panel 120. Due to the ultrasonic vibration, a high-pressure air film is formed between the touch panel 120 and the finger. Therefore, the panel tactile sensation generating unit 122 may give a “smooth feeling” by the floating action of the air film, and give a “gritty feeling” by instantaneously switching the size of the floating action.

筐体触感生成部123は、電子機器100の全体を振動させることにより、触感を生成する。筐体触感生成部123は、例えば偏心モーター等を有し、公知のバイブレーション機能等を実現する。これにより、電子機器100は、筐体触感生成部123が生成する振動により、電子機器100を保持するユーザの手等に触感を与えることができる。   The case tactile sensation generating unit 123 generates a tactile sensation by vibrating the entire electronic device 100. The case tactile sensation generating unit 123 includes, for example, an eccentric motor and realizes a known vibration function and the like. Thereby, the electronic device 100 can give a tactile sensation to the user's hand or the like holding the electronic device 100 by the vibration generated by the housing tactile sensation generating unit 123.

図2は、電子機器100による、触感制御処理を示すフローチャートである。本実施形態に係る電子機器100は、EVF114を使用中か否かに基づいて、触感生成を制御する。具体的には、電子機器100は、EVF114が使用されておらず、LCDパネル112のみ使用中の場合には、触感を生成せず、EVF114も使用中の場合には、触感を生成する。
図3は、LCDパネル112に表示される画面例を示す図である。図3に示す画面301には、2つのボタン302,303が表示されている。ユーザは、これらのボタン302,303をタッチすることにより、電子機器100に対し指示を入力する。なお、EVF114には、LCDパネル112に表示されている画面と同様の画面が表示されてもよく、また異なる画面が表示されてもよい。
FIG. 2 is a flowchart showing tactile sensation control processing by the electronic device 100. The electronic device 100 according to the present embodiment controls tactile sensation generation based on whether the EVF 114 is being used. Specifically, the electronic device 100 does not generate the tactile sensation when the EVF 114 is not used and only the LCD panel 112 is used, and generates the tactile sensation when the EVF 114 is also used.
FIG. 3 is a view showing an example of a screen displayed on the LCD panel 112. On the screen 301 shown in FIG. 3, two buttons 302 and 303 are displayed. The user inputs an instruction to the electronic device 100 by touching these buttons 302 and 303. The EVF 114 may display a screen similar to the screen displayed on the LCD panel 112 or a different screen.

ユーザにより、タッチパネル120への操作を受け付けると、S201において、電子機器100のCPU101は、操作子による操作を検知し(検知処理)、タッチパネル120への操作を受け付ける。このとき受け付ける操作としては、先に説明したように、タッチダウン、タッチオン、ムーブ、タッチアップ、タッチオフ等がある。以下、ユーザによる操作子を用いたタッチパネル120への操作をパネル操作と適宜称することとする。次に、S202において、CPU101は、パネル操作におけるタッチ位置のタッチ座標を取得する。
次に、S203において、CPU101は、タッチ位置がボタン領域内か否かを確認する。例えば、図3に示す例においては、CPU101は、タッチ位置がボタン302,303内の座標である場合に、タッチ位置がボタン領域内であると判断する。CPU101は、タッチ位置がボタン領域内の場合に(S203でYES)、処理をS204へ進める。CPU101は、タッチ位置がボタン領域外の場合に(S203でNO)、処理をS211へ進める。
When an operation on the touch panel 120 is accepted by the user, in S201, the CPU 101 of the electronic device 100 detects an operation by the operator (detection process) and accepts an operation on the touch panel 120. The operations accepted at this time include touch-down, touch-on, move, touch-up, touch-off, etc. as described above. Hereinafter, an operation on the touch panel 120 using the operator by the user will be appropriately referred to as a panel operation. Next, in S202, the CPU 101 acquires the touch coordinates of the touch position in the panel operation.
Next, in S203, the CPU 101 confirms whether or not the touch position is within the button area. For example, in the example illustrated in FIG. 3, the CPU 101 determines that the touch position is within the button area when the touch position is the coordinates within the buttons 302 and 303. If the touch position is within the button area (YES in S203), the CPU 101 advances the process to S204. If the touch position is outside the button area (NO in S203), the CPU 101 advances the process to S211.

S204において、CPU101は、ボタンを操作したという情報をイベント情報に変換する。ここで、イベント情報とは、操作されたボタンに割り当てられている機能を実行するためのコマンドである。コマンドとしては、メニュー画面を開く、現在の画面を閉じる等の機能を実行する等が挙げられる。S205において、CPU101は、変換後のイベント情報を受け付けたことをユーザに通知するために、操作されたボタンの表示を制御する。具体的には、CPU101は、ボタンが押されたように見えるように、ボタンの表示態様を変更するような画像処理を行う。
S206において、CPU101は、イベント情報が、処理時点の場面において、有効か否かを判定する。具体的には、CPU101は、電子機器100がイベント情報に相当する機能を有さない場合や、機能を動作できない状況にある場合に、イベント情報は無効であると判定する。CPU101は、イベント情報が有効である場合には(S206でYES)、処理をS207へ進める。CPU101は、イベント情報が無効である場合には(S206でNO)、処理をS211へ進める。
In step S204, the CPU 101 converts information indicating that the button has been operated into event information. Here, the event information is a command for executing a function assigned to the operated button. Examples of the command include executing a function such as opening a menu screen and closing the current screen. In step S205, the CPU 101 controls the display of the operated button in order to notify the user that the converted event information has been received. Specifically, the CPU 101 performs image processing that changes the display mode of the buttons so that the buttons appear to be pressed.
In S206, the CPU 101 determines whether the event information is valid in the scene at the time of processing. Specifically, the CPU 101 determines that the event information is invalid when the electronic device 100 does not have a function corresponding to the event information or when the electronic device 100 cannot operate the function. If the event information is valid (YES in S206), the CPU 101 advances the process to S207. If the event information is invalid (NO in S206), the CPU 101 advances the process to S211.

S207において、CPU101は、EVF114の使用状況を取得する。次に、S208において、CPU101は、使用状況からEVF114が使用中か否かを確認する(確認処理)。本実施形態においては、電子機器100は、EVF114への接眼の有無を検知する接眼検知部117による検知結果を使用状況として取得する。そして、CPU101は、使用状況において、接眼を検知したことを示す使用状況を取得した場合に、EVF114を使用中と判断し、接眼を検知しなかったことを示す使用状況を取得した場合に、EVF114を使用中でないと判断する。なお、使用中か否かを判断するための具体的な処理は、実施形態に限定されるものではない。
他の例としては、CPU101は、EVF114の引き出しを検出する検出部(不図示)による検知結果を使用状況として取得してもよい。この場合、CPU101は、引き出しを検出したことを示す使用状況を取得した場合に、EVF114を使用中と判断し、引き出しを検出しなかったことを示す使用状況を取得した場合に、EVF114を使用中でないと判断する。
In S207, the CPU 101 acquires the usage status of the EVF 114. Next, in S208, the CPU 101 confirms whether the EVF 114 is in use from the usage status (confirmation process). In the present embodiment, the electronic device 100 acquires the detection result by the eyepiece detection unit 117 that detects the presence or absence of the eyepiece on the EVF 114 as the usage status. Then, the CPU 101 determines that the EVF 114 is in use when the usage status indicating that the eyepiece is detected in the usage status, and acquires the usage status indicating that the eyepiece is not detected. Is not in use. Note that the specific processing for determining whether or not the device is in use is not limited to the embodiment.
As another example, the CPU 101 may acquire a detection result by a detection unit (not shown) that detects the withdrawal of the EVF 114 as a usage state. In this case, the CPU 101 determines that the EVF 114 is in use when acquiring the usage status indicating that the drawer has been detected, and is using the EVF 114 when acquiring the usage status indicating that the drawer has not been detected. Judge that it is not.

CPU101は、EVF114が使用中の場合には(S208でYES)、処理をS209へ進める。CPU101は、EVF114が使用中でない場合には(S208でNO)、処理をS210へ進める。S209において、CPU101は、パネル触感生成部122を制御し、タッチパネル120を介して操作子に与える触感を生成する(触感制御処理)。
次に、S210において、CPU101は、イベント情報に係るイベントを実行する。次に、S211において、CPU101は、処理が完了したか否かを判定する。CPU101は、処理が完了したと判断した場合には、触感制御処理を終了する。CPU101は、処理が完了していないと判断した場合には、処理をS201へ進める。
If the EVF 114 is in use (YES in S208), the CPU 101 advances the process to S209. If the EVF 114 is not in use (NO in S208), the CPU 101 advances the process to S210. In step S <b> 209, the CPU 101 controls the panel tactile sensation generation unit 122 to generate a tactile sensation to be given to the operator via the touch panel 120 (tactile sensation control processing).
Next, in S210, the CPU 101 executes an event related to the event information. Next, in S211, the CPU 101 determines whether the processing is completed. If the CPU 101 determines that the process has been completed, the tactile sensation control process ends. If the CPU 101 determines that the process has not been completed, the process proceeds to S201.

以上のように、第1の実施形態に係る電子機器100は、EVF114の使用中に、タッチパネル120へのタッチ操作が行われた場合には、操作子に対して与える触感を生成する。これにより、ユーザは、LCDパネル112を見ないでタッチ操作を行った場合であっても、電子機器100がタッチ操作を認識したか否かを把握することができる。すなわち、本実施形態に係る電子機器100は、複数の表示装置を備えた電子機器において、触感フィードバックを用いた、使い勝手のよいユーザインターフェースを提供することができる。   As described above, when the touch operation on the touch panel 120 is performed while using the EVF 114, the electronic device 100 according to the first embodiment generates a tactile sensation to be given to the operator. Thereby, even when the user performs the touch operation without looking at the LCD panel 112, the user can grasp whether or not the electronic device 100 has recognized the touch operation. That is, the electronic device 100 according to the present embodiment can provide an easy-to-use user interface using tactile feedback in an electronic device including a plurality of display devices.

触感制御処理は、電子機器100の最低限の動作であり、電子機器100は、さらに以下に説明するような表示制御処理を実行する。これにより、更なる使い勝手の向上を図ることができる。
図4は、LCDパネル112が使用中であり、かつEVF114が使用されていない場合に、電子機器100により実行される第1の表示制御処理を示すフローチャートである。なお、第1の表示制御処理は、図2を参照しつつ説明した触感制御処理と並行して行われる。S401において、CPU101は、切換検出部116から切換情報を取得する。ここで、切換情報は、表示を行う装置のLCDパネル112及びEVF114の間での切り換えが検出されたか否かを示す情報である。
The tactile sensation control process is a minimum operation of the electronic device 100, and the electronic device 100 further executes a display control process as described below. Thereby, the usability can be further improved.
FIG. 4 is a flowchart illustrating a first display control process executed by the electronic device 100 when the LCD panel 112 is in use and the EVF 114 is not used. The first display control process is performed in parallel with the tactile sensation control process described with reference to FIG. In step S <b> 401, the CPU 101 acquires switching information from the switching detection unit 116. Here, the switching information is information indicating whether or not switching between the LCD panel 112 and the EVF 114 of the display device is detected.

次に、S402において、CPU101は、切換情報に基づいて、LCDパネル112からEVF114への表示の切り換えが検出されたか否かを確認する。CPU101は、切り換えが検出された場合には(S402でYES)、処理をS404へ進める。CPU101は、切り換えが検出されなかった場合には(S402でNO)、処理をS403へ進める。
S403において、CPU101は、LCDパネル112の表示を継続する。一方、S404において、CPU101は、LCDパネル112を非表示状態とする。そして、S405において、CPU101は、EVF114の表示を行う。なお、本処理は、図2に示す表示制御処理の中に組み込まれ、実行されてもよい。また、他の例としては、CPU101は、S404において、LCDパネル112の表示画像をより低輝度な画像に変更することにより、LCDパネル112を低輝度状態としてもよい。
このように、CPU101は、EVF114が使用中の場合や、ユーザがLCDパネル112を見ないで操作を行う場合等に、切換情報に基づいて、LCDパネル112及びEVF114に排他的な表示を実現することができる。
Next, in S402, the CPU 101 confirms whether or not display switching from the LCD panel 112 to the EVF 114 is detected based on the switching information. If the switching is detected (YES in S402), the CPU 101 advances the process to S404. If the switching is not detected (NO in S402), the CPU 101 advances the process to S403.
In S403, the CPU 101 continues the display on the LCD panel 112. On the other hand, in S404, the CPU 101 puts the LCD panel 112 into a non-display state. In step S405, the CPU 101 displays the EVF 114. Note that this process may be incorporated and executed in the display control process shown in FIG. As another example, the CPU 101 may change the display image of the LCD panel 112 to a lower-brightness image in S404, thereby setting the LCD panel 112 in a low-brightness state.
As described above, the CPU 101 realizes exclusive display on the LCD panel 112 and the EVF 114 based on the switching information when the EVF 114 is in use or when the user performs an operation without looking at the LCD panel 112. be able to.

図5は、LCDパネル112の使用中に、電子機器100により実行される第2の表示制御処理を示すフローチャートである。第2の表示制御処理により、タッチパネル120へのタッチ操作の操作位置がEVF114に表示される。これにより、操作性を向上させることができる。
S501において、CPU101は、タッチ操作が行われたタッチ座標を取得する。次に、S502において、CPU101は、EVF114が使用中か否かを判定する。S502の処理は、S208の処理と同様である。CPU101は、EVF114が使用中の場合には(S502でYES)、処理をS503へ進める。CPU101は、EVF114が使用中でない場合には(S502でNO)、第2の表示制御処理を終了する。
S503において、CPU101は、LCDパネル112上のタッチ位置のタッチ座標をEVF114における座標に変換する。次に、S504において、EVF114に、タッチ位置を示すガイド画像を表示する。以上で、第2の表示制御処理は終了する。なお、本処理は、図2に示す表示制御処理の中に組み込まれ、実行されてもよい。
FIG. 5 is a flowchart showing a second display control process executed by the electronic device 100 while the LCD panel 112 is being used. By the second display control process, the operation position of the touch operation on the touch panel 120 is displayed on the EVF 114. Thereby, operability can be improved.
In step S <b> 501, the CPU 101 acquires touch coordinates where a touch operation has been performed. Next, in S502, the CPU 101 determines whether or not the EVF 114 is in use. The process of S502 is the same as the process of S208. If the EVF 114 is in use (YES in S502), the CPU 101 advances the process to S503. If the EVF 114 is not in use (NO in S502), the CPU 101 ends the second display control process.
In step S <b> 503, the CPU 101 converts the touch coordinates of the touch position on the LCD panel 112 into coordinates in the EVF 114. In step S504, a guide image indicating the touch position is displayed on the EVF 114. Thus, the second display control process ends. Note that this process may be incorporated and executed in the display control process shown in FIG.

図6は、第2の表示制御処理を説明するための図である。図6(A)は、LCDパネル112を示す図である。LCDパネル112には、ボタン600が表示されている。図6(B)は、EVF114を示す図である。EVF114には、ボタン600に対応するボタン610が表示されている。この状態において、図6(A)に示すように、LCDパネル112に対応するタッチパネル120上において、位置601へのタッチ操作が行われたとする。この場合、図6(B)に示すように、EVF114は、位置601に対応する位置611に、タッチ位置を示すガイド画像612を表示する。   FIG. 6 is a diagram for explaining the second display control process. FIG. 6A shows the LCD panel 112. A button 600 is displayed on the LCD panel 112. FIG. 6B is a diagram showing the EVF 114. A button 610 corresponding to the button 600 is displayed on the EVF 114. In this state, it is assumed that a touch operation to the position 601 is performed on the touch panel 120 corresponding to the LCD panel 112 as illustrated in FIG. In this case, as shown in FIG. 6B, the EVF 114 displays a guide image 612 indicating the touch position at a position 611 corresponding to the position 601.

次に、第1の実施形態に係る電子機器100の変更例について説明する。図7は、変更例に係る、第2の表示制御処理を示すフローチャートである。なお、図7において、第1の実施形態に係る、第2の表示制御処理中の各処理と同様の処理には、同一の番号を付している。変更例においては、電子機器100は、タッチパネル120上の特定の位置がタッチされた場合にのみ、EVF114に、タッチ位置を示すガイド画像を表示する。これにより、電子機器100の制御負担を軽減することができ、また、EVF114に不必要な表示が行われるのを防ぐことができる。
以下、変更例に係る第2の表示制御処理の、第1の実施形態に係る第2の表示制御処理と異なる点について説明する。CPU101は、S502において、EVF114が使用中の場合には(S502でYES)、処理をS701へ進める。S701において、CPU101は、タッチ位置が特定位置か否かを確認する。ここで、特定位置は、予め定められた位置であり、例えば、不揮発性メモリ103等に設定されているものとする。CPU101は、タッチ位置が特定位置である場合には(S701でYES)、処理をS503へ進める。CPU101は、タッチ位置が特定位置以外の位置である場合には(S701でNO)、第2の表示制御処理を終了する。
Next, a modification example of the electronic device 100 according to the first embodiment will be described. FIG. 7 is a flowchart illustrating the second display control process according to the modification. In FIG. 7, processes similar to those in the second display control process according to the first embodiment are assigned the same numbers. In the modification example, electronic device 100 displays a guide image indicating the touch position on EVF 114 only when a specific position on touch panel 120 is touched. Thereby, the control burden of the electronic device 100 can be reduced, and unnecessary display on the EVF 114 can be prevented.
Hereinafter, differences of the second display control process according to the modified example from the second display control process according to the first embodiment will be described. If the EVF 114 is in use in S502 (YES in S502), the CPU 101 advances the process to S701. In step S <b> 701, the CPU 101 confirms whether or not the touch position is a specific position. Here, it is assumed that the specific position is a predetermined position, and is set in the nonvolatile memory 103 or the like, for example. If the touch position is the specific position (YES in S701), the CPU 101 advances the process to S503. If the touch position is a position other than the specific position (NO in S701), the CPU 101 ends the second display control process.

図8は、変更例に係る第2の表示制御処理を説明するための図である。図8(A)は、特定位置を示す図である。本例においては、図8(A)に示すように、縦方向と横方向の線の交際値が特定位置として定められている。なお、CPU101は、LCDパネル112に特定位置を示す点又は格子を表示してもよく、表示しなくともよい。図8(A)に示す特定位置801がタッチされると、EVF114は、図8(B)に示すように、タッチされた特定位置801に対応する位置811に、タッチ位置を示すガイド画像812を表示する。   FIG. 8 is a diagram for explaining the second display control process according to the modified example. FIG. 8A shows a specific position. In this example, as shown in FIG. 8A, the intersection value of the vertical and horizontal lines is determined as the specific position. Note that the CPU 101 may or may not display points or grids indicating specific positions on the LCD panel 112. When the specific position 801 shown in FIG. 8A is touched, the EVF 114 displays a guide image 812 indicating the touch position at a position 811 corresponding to the touched specific position 801, as shown in FIG. 8B. indicate.

(第2の実施形態)
第2の実施形態に係る電子機器100は、EVF114が使用中か否かに応じて、触感制御を異ならせる。図9は、第2の実施形態に係る電子機器100による、触感制御処理を示すフローチャートである。図9において、第1の実施形態に係る触感制御処理の各処理と同様の処理には、同一の番号を付している。ここでは、第2の実施形態に係る触感制御処理について、第1の実施形態に係る触感制御処理と異なる点について説明する。
(Second Embodiment)
The electronic device 100 according to the second embodiment varies tactile sensation control depending on whether the EVF 114 is in use. FIG. 9 is a flowchart illustrating tactile sensation control processing by the electronic device 100 according to the second embodiment. In FIG. 9, the same number is attached | subjected to the process similar to each process of the tactile sense control process which concerns on 1st Embodiment. Here, the tactile sensation control process according to the second embodiment will be described with respect to differences from the tactile sensation control process according to the first embodiment.

CPU101は、S208において、EVF114が使用中でない場合には(S208でNO)、処理をS901へ進める。S901において、CPU101は、第1の触感制御を行う。ここで、第1の触感制御は、パネル触感生成部122を制御し、操作子に与える第1の触感を生成する処理である。CPU101はまた、S208において、EVF114が使用中の場合には(S208でYES)、処理をS902へ進める。
S902において、CPU101は、第2の触感制御を行う。ここで、第2の触感制御は、パネル触感生成部122を制御し、操作子に与える第2の触感を生成する処理である。ここで、第1の触感及び第2の触感は異なる触感である。異なる触感とは、触感の強度、又はゴツゴツ感、ざらざら感といった触感の種類のうち少なくとも一方が異なる触感である。なお、S901及びS902の処理は、触感制御処理の一例である。第2の実施形態に係る電子機器100のこれ以外の構成及び処理は、第1の実施形態に係る電子機器100の構成及び処理と同様である。
以上のように、第2の実施形態に係る電子機器100は、EVF114が使用中か否かに応じて、異なる触感を生成する。これにより、使い勝手のよりユーザインターフェースを提供することができる。
If the EVF 114 is not in use in S208 (NO in S208), the CPU 101 advances the process to S901. In step S901, the CPU 101 performs first tactile sensation control. Here, the first tactile sensation control is a process of controlling the panel tactile sensation generating unit 122 and generating a first tactile sensation to be given to the operator. In S208, if the EVF 114 is in use (YES in S208), the CPU 101 advances the process to S902.
In step S902, the CPU 101 performs second tactile sensation control. Here, the second tactile sensation control is a process of controlling the panel tactile sensation generating unit 122 and generating a second tactile sensation to be given to the operator. Here, the first tactile sensation and the second tactile sensation are different tactile sensations. The different tactile sensations are tactile sensations in which at least one of the strength of tactile sensation, or the type of tactile sensation such as a rough feeling or a rough feeling is different. Note that the processing in S901 and S902 is an example of tactile sensation control processing. Other configurations and processes of the electronic device 100 according to the second embodiment are the same as those of the electronic device 100 according to the first embodiment.
As described above, the electronic device 100 according to the second embodiment generates different tactile sensations depending on whether or not the EVF 114 is in use. Thereby, it is possible to provide a user interface with ease of use.

第2の実施形態に係る電子機器100の変更例としては、第2の触感制御は、筐体触感生成部123を制御し、電子機器100全体を振動させることによる触感を生成させる処理であってもよい。これにより、電子機器100は、操作子をタッチパネル120に接触させていない場合においても、ユーザに触感を与えることができる。   As a modification example of the electronic device 100 according to the second embodiment, the second tactile sensation control is a process of generating a tactile sensation by controlling the housing tactile sensation generating unit 123 and vibrating the entire electronic device 100. Also good. Thereby, the electronic device 100 can give a user a tactile sensation even when the operator is not in contact with the touch panel 120.

(第3の実施形態)
第3の実施形態に係る電子機器100は、EVF114が使用中か否か及びタッチ位置に応じて、触感制御を異ならせる。図10は、第3の実施形態に係る電子機器100による、触感制御処理を示すフローチャートである。ここでは、第3の実施形態に係る触感制御処理について、第1の実施形態に係る触感制御処理と異なる点について説明する。
(Third embodiment)
The electronic device 100 according to the third embodiment varies tactile sensation control according to whether the EVF 114 is in use and the touch position. FIG. 10 is a flowchart illustrating tactile sensation control processing by the electronic device 100 according to the third embodiment. Here, the tactile sensation control process according to the third embodiment will be described with respect to differences from the tactile sensation control process according to the first embodiment.

図11は、LCDパネル112の表示例を示す図である。図11(A)は、EVF114が使用中の場合に表示される画面1101を示す図である。画面1101には、第1の領域1102が設定されている。ここで、第1の領域1102は、例えばユーザ操作を受け付けるためのボタンが表示されている領域である。
図11(B)は、EVF114が使用中でない場合に表示される画面1111を示す図である。画面1111には、第2の領域1112及び第3の領域1113が設定されている。ここで、第3の領域1113はボタンが表示されている領域である。第2の領域1112は、第3の領域1113の周囲の所定範囲の領域である。
なお、第1の領域1102と、第3の領域1113とは、同一領域であってもよく、異なる領域であってもよい。なお、いずれの場合も、第1の領域1102及び第3の領域1113は、ボタンが表示されている領域であるものとする。
FIG. 11 is a diagram illustrating a display example of the LCD panel 112. FIG. 11A is a diagram showing a screen 1101 displayed when the EVF 114 is in use. A first area 1102 is set on the screen 1101. Here, the first area 1102 is an area in which, for example, a button for accepting a user operation is displayed.
FIG. 11B is a diagram showing a screen 1111 displayed when the EVF 114 is not in use. A second area 1112 and a third area 1113 are set on the screen 1111. Here, the third area 1113 is an area where buttons are displayed. The second area 1112 is an area in a predetermined range around the third area 1113.
Note that the first region 1102 and the third region 1113 may be the same region or different regions. In any case, it is assumed that the first area 1102 and the third area 1113 are areas where buttons are displayed.

以下、図11に示す画面1101,1111が表示される場合の、触感制御処理について説明する。CPU101は、S202において、タッチ座標を取得した後、処理をS1001へ進める。S1001において、CPU101は、EVF114の使用状況を取得する。次に、S1002において、CPU101は、EVF114が使用中か否かを確認する。CPU101は、EVF114が使用中の場合には(S1002でYES)、処理をS1007へ進める。CPU101は、EVF114が使用中でない場合には(S1002でNO)、処理をS1003へ進める。   Hereinafter, tactile sensation control processing when the screens 1101 and 1111 shown in FIG. 11 are displayed will be described. In step S202, the CPU 101 obtains touch coordinates, and then advances the process to step S1001. In step S <b> 1001, the CPU 101 acquires the usage status of the EVF 114. In step S1002, the CPU 101 confirms whether the EVF 114 is in use. If the EVF 114 is in use (YES in S1002), the CPU 101 advances the process to S1007. If the EVF 114 is not in use (NO in S1002), the CPU 101 advances the process to S1003.

S1003において、CPU101は、タッチ位置が第1の領域1102内か否かを確認する。CPU101は、タッチ位置が第1の領域1102内の場合には(S1003でYES)、処理をS1004へ進める。CPU101は、タッチ位置が第1の領域1102外の場合には(S1003でNO)、処理をS211へ進める。S1004において、CPU101は、タッチ座標を第1イベントに変換する。次に、S1005において、CPU101は、操作されたボタンの表示を制御する。次に、S1006において、CPU101は、第1の触感制御を行い、その後処理をS210へ進める。ここで、第1の触感制御は、パネル触感生成部122を制御して、第1の触感を生成する処理である。   In step S <b> 1003, the CPU 101 confirms whether the touch position is within the first area 1102. If the touch position is within the first area 1102 (YES in S1003), the CPU 101 advances the process to S1004. If the touch position is outside the first area 1102 (NO in S1003), the CPU 101 advances the process to S211. In S1004, the CPU 101 converts the touch coordinates into the first event. In step S <b> 1005, the CPU 101 controls display of the operated button. Next, in S1006, the CPU 101 performs first tactile sensation control, and then advances the process to S210. Here, the first tactile sensation control is a process of controlling the panel tactile sensation generating unit 122 to generate the first tactile sensation.

一方で、S1007において、CPU101は、タッチ位置が第2の領域1112内か否かを確認する。CPU101は、タッチ位置が第2の領域1112内の場合には(S1007でYES)、処理をS1008へ進める。CPU101は、タッチ位置が第2の領域1112外の場合には(S1007でNO)、処理をS1010へ進める。
S1008において、CPU101は、タッチ座標を第2イベントに変換する。次に、S1009において、CPU101は、第2の触感制御を行い、その後処理をS210へ進める。ここで、第2の触感制御は、パネル触感生成部122を制御して、第1の触感と異なる第2の触感を生成する処理である。
On the other hand, in S <b> 1007, the CPU 101 confirms whether or not the touch position is within the second area 1112. If the touch position is in the second region 1112 (YES in S1007), the CPU 101 advances the process to S1008. If the touch position is outside the second region 1112 (NO in S1007), the CPU 101 advances the process to S1010.
In step S1008, the CPU 101 converts the touch coordinates into the second event. Next, in S1009, the CPU 101 performs second tactile sensation control, and then advances the process to S210. Here, the second tactile sensation control is a process of controlling the panel tactile sensation generating unit 122 to generate a second tactile sensation different from the first tactile sensation.

また、S1010において、CPU101は、タッチ位置が第3の領域1113内か否かを確認する。CPU101は、タッチ位置が第3の領域1113内の場合には(S1010でYES)、処理をS1011へ進める。CPU101は、タッチ位置が第3の領域1113外の場合には(S1010でNO)、処理をS211へ進める。
S1011において、CPU101は、タッチ座標を第3イベントに変換する。次に、S1012において、CPU101は、操作されたボタンの表示を制御する。次に、S1013において、CPU101は、第3の触感制御を行い、その後処理をS210へ進める。ここで、第3の触感制御処理は、パネル触感生成部122を制御して、第1の触感及び第2の触感のいずれとも異なる第3の触感を生成する処理である。なお、第1イベント、第2イベント及び第3イベントは、S210において実行される。
なお、第3の実施形態に係る電子機器100のこれ以外の構成及び処理は、他の実施形態に係る電子機器100の構成及び処理と同様である。
In step S <b> 1010, the CPU 101 confirms whether the touch position is within the third area 1113. If the touch position is within the third region 1113 (YES in S1010), the CPU 101 advances the process to S1011. If the touch position is outside the third region 1113 (NO in S1010), the CPU 101 advances the process to S211.
In step S1011, the CPU 101 converts touch coordinates into a third event. In step S1012, the CPU 101 controls display of the operated button. Next, in S1013, the CPU 101 performs the third tactile sensation control, and then advances the process to S210. Here, the third tactile sensation control process is a process of controlling the panel tactile sensation generating unit 122 to generate a third tactile sensation different from both the first tactile sensation and the second tactile sensation. The first event, the second event, and the third event are executed in S210.
The remaining configuration and processing of the electronic device 100 according to the third embodiment are the same as the configuration and processing of the electronic device 100 according to other embodiments.

以上のように、第3の実施形態に係る電子機器100は、EVF114が使用中か否かだけでなく、タッチ位置に応じて、異なる触感を生成する。これにより、例えば、EVF114を見ながら、タッチパネル120を操作する際の誤操作を防ぐことができる。したがって、使い勝手のよりユーザインターフェースを提供することができる。   As described above, the electronic device 100 according to the third embodiment generates different tactile sensations depending on whether or not the EVF 114 is in use and depending on the touch position. Thereby, for example, an erroneous operation when operating the touch panel 120 while watching the EVF 114 can be prevented. Therefore, it is possible to provide a user interface that is easier to use.

第3の実施形態の第1の変更例としては、第1の触感、第2の触感及び第3の触感のうち少なくとも2つの触感は、同一であってもよい。また、CPU101は、予め設定された領域の数に応じて、複数の触感制御を行えばよく、その数は、実施形態に限定されるものではない。   As a first modification of the third embodiment, at least two of the first tactile sensation, the second tactile sensation, and the third tactile sensation may be the same. Further, the CPU 101 may perform a plurality of tactile sensation controls according to the number of preset areas, and the number is not limited to the embodiment.

第2の変更例としては、第2の触感制御及び第3の触感制御のうち少なくとも一方は、筐体触感生成部123を制御し、電子機器100全体を振動させることにより触感を生成させる処理であってもよい。これにより、電子機器100は、操作子をタッチパネル120に接触させていない場合においても、ユーザに触感を与えることができる。さらに、この場合、第2の触感制御において生成する第2の触感と、第3の触感制御において生成する第3の触感とは同一の触感であってもよく、異なる触感であってもよい。ここで、異なる触感とは、振動の大きさ、振動のパターンのうち少なくとも一方が異なる振動により生じる触感である。   As a second modification, at least one of the second tactile sensation control and the third tactile sensation control is a process of controlling the housing tactile sensation generating unit 123 to generate a tactile sensation by vibrating the entire electronic device 100. There may be. Thereby, the electronic device 100 can give a user a tactile sensation even when the operator is not in contact with the touch panel 120. Further, in this case, the second tactile sensation generated in the second tactile sensation control and the third tactile sensation generated in the third tactile sensation control may be the same or different. Here, the different tactile sensations are tactile sensations generated by vibrations in which at least one of the magnitude of vibration and the vibration pattern is different.

(第4の実施形態)
第4の実施形態に係る電子機器100は、EVF114が使用中か否か及びタッチ操作における押圧力に応じて、触感制御を異ならせる。図12は、第4の実施形態に係る電子機器100による、触感制御処理を示すフローチャートである。ここでは、第4の実施形態に係る触感制御処理について、第1の実施形態に係る触感制御処理と異なる点について説明する。
CPU101は、S202の処理の後、処理をS1201へ進める。S1201において、CPU101は、荷重検出部121からタッチ操作の操作時の押圧力を示す押圧値を取得し、その後処理をS203へ進める。その後、CPU101は、S203〜S208の処理を行う。CPU101は、S208において、EVF114が使用中の場合には(S208でYES)、処理をS1203へ進める。CPU101は、EVF114が使用中でない場合には(S208でNO)、処理をS1202へ進める。S1202において、CPU101は、第1の触感制御を行う。ここで、第1の触感制御は、パネル触感生成部122を制御し、操作子に与える第1の触感を生成する処理である。
(Fourth embodiment)
The electronic device 100 according to the fourth embodiment varies tactile sensation control depending on whether the EVF 114 is in use and the pressing force in the touch operation. FIG. 12 is a flowchart illustrating tactile sensation control processing by the electronic device 100 according to the fourth embodiment. Here, a difference between the tactile sensation control process according to the fourth embodiment and the tactile sensation control process according to the first embodiment will be described.
After the process of S202, the CPU 101 advances the process to S1201. In S <b> 1201, the CPU 101 acquires a pressing value indicating a pressing force at the time of the touch operation from the load detection unit 121, and then advances the process to S <b> 203. Thereafter, the CPU 101 performs the processes of S203 to S208. If the EVF 114 is in use in S208 (YES in S208), the CPU 101 advances the process to S1203. If the EVF 114 is not in use (NO in S208), the CPU 101 advances the process to S1202. In S1202, the CPU 101 performs first tactile sensation control. Here, the first tactile sensation control is a process of controlling the panel tactile sensation generating unit 122 and generating a first tactile sensation to be given to the operator.

また、S1203において、CPU101は、S1201において取得した押圧値が予め設定された基準値以上か否かを判断する。CPU101は、押圧値が基準値以上の場合には(S1203でYES)、処理をS1205へ進める。CPU101は、押圧値が基準値未満の場合には(S1203でNO)、処理をS1204へ進める。
S1204において、CPU101は、第2の触感制御を行う。また、S1205においては、CPU101は、第3の触感制御を行う。ここで、第2の触感制御は、パネル触感生成部122を制御し、操作子に与える第2の触感を生成する処理である。また、第3の触感制御は、パネル触感生成部122を制御し、操作子に与える第3の触感を生成する処理である。ここで、第1の触感、第2の触感及び第3の触感は、いずれも異なる触感であるものとする。なお、他の例としては、第1の触感、第2の触感及び第3の触感のうち少なくとも2つの触感は、同一の触感であってもよい。
In step S1203, the CPU 101 determines whether the pressing value acquired in step S1201 is greater than or equal to a preset reference value. If the pressed value is equal to or greater than the reference value (YES in S1203), the CPU 101 advances the process to S1205. If the pressed value is less than the reference value (NO in S1203), CPU 101 advances the process to S1204.
In step S1204, the CPU 101 performs second tactile sensation control. In S1205, the CPU 101 performs third tactile sensation control. Here, the second tactile sensation control is a process of controlling the panel tactile sensation generating unit 122 and generating a second tactile sensation to be given to the operator. The third tactile sensation control is a process of controlling the panel tactile sensation generating unit 122 to generate a third tactile sensation to be given to the operator. Here, the first tactile sensation, the second tactile sensation, and the third tactile sensation are all different tactile sensations. As another example, at least two of the first tactile sensation, the second tactile sensation, and the third tactile sensation may be the same tactile sensation.

CPU101は、例えば、S1202において、ボタン操作に対応する触感(第1の触感)を生成する。また、CPU101は、押圧力が基準値未満の場合には、S1204において、ボタンに触れたことをユーザに知らせるための触感(第2の触感)を生成する。そして、CPU101は、押圧力が基準値以上となった場合に、S1205において、静止画を記録することをユーザに知らせるための触感(第3の触感)を生成する。これにより、静止画の記録指示を受け付けるフォトボタンのような2段階操作それぞれを受け付けたことをユーザに知らせることができる。
また、S210において、CPU101は、各条件に応じたイベントを実行する。例えば、静止画記録の例においては、CPU101は、EVF114が使用中でない場合には、S210において、静止画を記録する。また、CPU101は、EVF114が使用中でかつ押圧値が基準値未満の場合には、S210において、合焦動作のみを実行する。また、CPU101は、EVF114が使用中でかつ押圧値が基準値以上の場合には、S210において、静止画を記録する。
なお、第4の実施形態に係る電子機器100のこれ以外の構成及び処理は、他の実施形態に係る電子機器100の構成及び処理と同様である。
For example, in S1202, the CPU 101 generates a tactile sensation (first tactile sensation) corresponding to the button operation. When the pressing force is less than the reference value, the CPU 101 generates a tactile sensation (second tactile sensation) for notifying the user that the button has been touched in S1204. Then, when the pressing force exceeds the reference value, the CPU 101 generates a tactile sensation (third tactile sensation) for notifying the user that a still image is to be recorded in S1205. Thereby, it is possible to notify the user that each of the two-step operations such as a photo button for receiving a still image recording instruction has been received.
In S210, the CPU 101 executes an event corresponding to each condition. For example, in the example of still image recording, when the EVF 114 is not in use, the CPU 101 records a still image in S210. If the EVF 114 is in use and the pressing value is less than the reference value, the CPU 101 executes only the focusing operation in S210. On the other hand, when the EVF 114 is in use and the pressing value is greater than or equal to the reference value, the CPU 101 records a still image in S210.
The remaining configuration and processing of the electronic device 100 according to the fourth embodiment are the same as the configuration and processing of the electronic device 100 according to the other embodiments.

以上のように、本実施形態に係る電子機器100は、EVF114が使用中か否かだけでなく、押圧力に応じて、異なる触感を生成する。これにより、押圧力に応じて異なる指示を受け付けたことを、ユーザに通知することができる。   As described above, the electronic device 100 according to the present embodiment generates different tactile sensations according to the pressing force as well as whether or not the EVF 114 is in use. Accordingly, it is possible to notify the user that a different instruction has been received according to the pressing force.

<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program.

以上、上述した各実施形態によれば、複数の表示装置を備えた電子機器において、触感フィードバックを用いた、使い勝手のよいユーザインターフェースを提供することができる。   As mentioned above, according to each embodiment mentioned above, in an electronic device provided with a plurality of display devices, it is possible to provide an easy-to-use user interface using tactile feedback.

以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。   The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.

100 電子機器、101 CPU、102 メモリ、103 不揮発性メモリ、112 LCDパネル、114 EVF、120 タッチパネル、121 荷重検出部、122 パネル触感生成部、123 筐体触感生成部 100 electronic equipment, 101 CPU, 102 memory, 103 nonvolatile memory, 112 LCD panel, 114 EVF, 120 touch panel, 121 load detection unit, 122 panel touch generation unit, 123 housing touch generation unit

Claims (7)

撮像手段と、
第1の表示手段と、
前記第1の表示手段とは異なる位置に配置される電子ファインダとしての第2の表示手段と、
前記第2の表示手段に対する接眼を検出する接眼検出手段と、
前記第1の表示手段に対応して設けられた入力面への操作子による操作を検知する第1の検知手段と、
前記操作子に振動を与える第1の触感と、前記第1の触感とは異なる触感であって前記操作子に振動を与える第2の触感と、前記第1の触感および前記第2の触感とは異なる触感であって前記操作子に振動を与える第3の触感とを生成する触感生成手段と
を有し、
前記触感生成手段は、
前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示されたボタンの領域外をタッチしたことが検知された場合には触感を生成せず、
前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内をタッチしたことが検知された場合には前記第1の触感を生成し、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域外であって前記ボタンの周囲を取り囲むように設定された領域内にタッチしたことが検知された場合には前記第2の触感を生成し、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの周囲を取り囲むように設定された領域の外にタッチしたことが検知された場合には触感を生成せず、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内にタッチしたことが検知された場合には前記第3の触感を生成する
ことを特徴とする電子機器。
Imaging means;
First display means;
Second display means as an electronic viewfinder disposed at a position different from the first display means;
Eyepiece detecting means for detecting an eyepiece with respect to the second display means;
First detection means for detecting an operation by an operator on an input surface provided corresponding to the first display means;
A first tactile giving vibration to the operator, a second touch giving vibration to the operator of a different tactile sensation as the first touch, and the first touch and the second touch Has a tactile sensation generating means for generating a third tactile sensation having different tactile sensations and applying vibration to the operation element ,
The tactile sensation generating means includes
When an eyepiece is not detected by the eyepiece detection means, and the first detection means detects that the operation element touches outside the area of the button displayed on the first display means as the operation. Does not generate a touch,
The eyepiece detecting means detects that the eyepiece is not detected, and the first detecting means detects that the operation element has touched the area of the button displayed on the first display means as the operation. If the first tactile sensation is generated,
An eyepiece is detected by the eyepiece detecting means, and the operation element is outside the area of the button displayed on the first display means as the operation by the first detecting means so as to surround the button. When it is detected that a touch has been made within the set area, the second tactile sensation is generated,
An eyepiece is detected by the eyepiece detection means, and the operation element touches outside the region set to surround the button displayed on the first display means as the operation by the first detection means. Does not generate a tactile sensation,
When the eyepiece is detected by the eyepiece detection unit, and the first detection unit detects that the operation element has touched the button area displayed on the first display unit as the operation. An electronic apparatus that generates the third tactile sensation .
前記第1の表示手段の表示を制御する表示制御手段を有し、Display control means for controlling the display of the first display means;
前記表示制御手段は、The display control means includes
前記触感生成手段により前記第1の触感および前記第3の触感が生成される場合には前記ボタンの表示形態を変更する表示を行い、When the first tactile sensation and the third tactile sensation are generated by the tactile sensation generating means, a display for changing the display form of the buttons is performed,
前記第2の触感が生成される場合および触感が生成されない場合には前記ボタンの表示形態を変更する表示を行わないように制御することを特徴とする請求項1に記載の電子機器。2. The electronic device according to claim 1, wherein when the second tactile sensation is generated and when the tactile sensation is not generated, control is performed so as not to perform display for changing a display form of the button.
前記接眼検出手段により接眼が検出されているときに前記第1の表示手段に表示されるボタンの領域と、
前記接眼検出手段により接眼が検出されていないときに前記第1の表示手段に表示されるボタンの領域とは、同一領域であることを特徴とする請求項1又は2に記載の電子機器。
A region of a button displayed on the first display means when an eyepiece is detected by the eyepiece detection means;
3. The electronic device according to claim 1 , wherein an area of the button displayed on the first display unit when the eyepiece is not detected by the eyepiece detection unit is the same region. 4.
前記接眼検出手段が接眼を検出した場合に、前記第2の表示手段が使用中の状態となるとともに、前記第1の表示手段は、非表示状態又は低輝度状態となることを特徴とする請求項1乃至3の何れか1項に記載の電子機器。 When the eyepiece detecting unit detects an eyepiece, the second display unit is in use, and the first display unit is in a non-display state or a low luminance state. Item 4. The electronic device according to any one of Items 1 to 3 . 撮像手段と、
第1の表示手段と、
前記第1の表示手段とは異なる位置に配置される電子ファインダとしての第2の表示手段と、
前記第2の表示手段に対する接眼を検出する接眼検出手段と、
前記第1の表示手段に対応して設けられた入力面への操作子による操作を検知する第1の検知手段と、
前記操作子に振動を与える第1の触感と、前記第1の触感とは異なる触感であって前記操作子に振動を与える第2の触感と、前記第1の触感および前記第2の触感とは異なる触感であって前記操作子に振動を与える第3の触感とを生成する触感生成手段と
を有する電子機器が実行する触感制御方法であって、
前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示されたボタンの領域外をタッチしたことが検知された場合には触感を生成せず、
前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内をタッチしたことが検知された場合には前記第1の触感を生成するステップと、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域外であって前記ボタンの周囲を取り囲むように設定された領域内にタッチしたことが検知された場合には前記第2の触感を生成し、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの周囲を取り囲むように設定された領域の外にタッチしたことが検知された場合には触感を生成せず、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内にタッチしたことが検知された場合には前記第3の触感を生成するステップと、を有することを特徴とする触感制御方法。
Imaging means;
First display means;
Second display means as an electronic viewfinder disposed at a position different from the first display means;
Eyepiece detecting means for detecting an eyepiece with respect to the second display means;
First detection means for detecting an operation by an operator on an input surface provided corresponding to the first display means;
A first tactile sensation that imparts vibration to the operation element, a second tactile sensation different from the first tactile sensation that imparts vibration to the operation element, the first tactile sensation, and the second tactile sensation A tactile sensation generating means for generating a third tactile sensation having different tactile sensations and applying vibration to the operation element
A tactile sensation control method executed by an electronic device having
When an eyepiece is not detected by the eyepiece detection means, and the first detection means detects that the operation element touches outside the area of the button displayed on the first display means as the operation. Does not generate a touch,
The eyepiece detecting means detects that the eyepiece is not detected, and the first detecting means detects that the operation element has touched the area of the button displayed on the first display means as the operation. In some cases, generating the first tactile sensation;
An eyepiece is detected by the eyepiece detecting means, and the operation element is outside the area of the button displayed on the first display means as the operation by the first detecting means so as to surround the button. When it is detected that a touch has been made within the set area, the second tactile sensation is generated,
An eyepiece is detected by the eyepiece detection means, and the operation element touches outside the region set to surround the button displayed on the first display means as the operation by the first detection means. Does not generate a tactile sensation,
When the eyepiece is detected by the eyepiece detection unit, and the first detection unit detects that the operation element has touched the button area displayed on the first display unit as the operation. And generating the third tactile sensation .
コンピュータを、請求項1乃至の何れか1項に記載された電子機器の各手段として機能させるためのプログラム。 The program for functioning a computer as each means of the electronic device as described in any one of Claims 1 thru | or 4 . コンピュータを、請求項1乃至の何れか1項に記載された電子機器の各手段として機能させるためのプログラムを格納したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium storing a program for causing a computer to function as each unit of the electronic device according to any one of claims 1 to 4 .
JP2014087722A 2014-04-21 2014-04-21 Electronic device, tactile sensation control method, and program Expired - Fee Related JP6433144B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014087722A JP6433144B2 (en) 2014-04-21 2014-04-21 Electronic device, tactile sensation control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014087722A JP6433144B2 (en) 2014-04-21 2014-04-21 Electronic device, tactile sensation control method, and program

Publications (2)

Publication Number Publication Date
JP2015207175A JP2015207175A (en) 2015-11-19
JP6433144B2 true JP6433144B2 (en) 2018-12-05

Family

ID=54603923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014087722A Expired - Fee Related JP6433144B2 (en) 2014-04-21 2014-04-21 Electronic device, tactile sensation control method, and program

Country Status (1)

Country Link
JP (1) JP6433144B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019091380A (en) * 2017-11-17 2019-06-13 株式会社東海理化電機製作所 Display control apparatus, input apparatus, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3730086B2 (en) * 2000-06-02 2005-12-21 シャープ株式会社 Camera-integrated video recording / playback device
JP2006268068A (en) * 2005-03-22 2006-10-05 Fujitsu Ten Ltd Touch panel device
JP4897596B2 (en) * 2007-07-12 2012-03-14 ソニー株式会社 INPUT DEVICE, STORAGE MEDIUM, INFORMATION INPUT METHOD, AND ELECTRONIC DEVICE
JP2013168093A (en) * 2012-02-17 2013-08-29 Nikon Corp Image display device
JP2013196465A (en) * 2012-03-21 2013-09-30 Kddi Corp User interface device for applying tactile response in object selection, tactile response application method and program
JP2014056337A (en) * 2012-09-11 2014-03-27 Tokai Rika Co Ltd Tactile sense presentation device

Also Published As

Publication number Publication date
JP2015207175A (en) 2015-11-19

Similar Documents

Publication Publication Date Title
KR101749126B1 (en) Image processing device, tactile sense control method, and recording medium
JP6381240B2 (en) Electronic device, tactile sensation control method, and program
JP6300604B2 (en) Touch control device, touch control method, and program
JP2015118605A (en) Tactile control device, tactile control method, and program
JP6289100B2 (en) Information processing apparatus, information processing method, and program
CN105814522B (en) Device and method for displaying user interface of virtual input device based on motion recognition
JP6071372B2 (en) Electronic device and control method of electronic device
US20150192998A1 (en) Tactile sense control apparatus, tactile sense control method, and storage medium
US20150253852A1 (en) Portable apparatus, control method and program
US9405370B2 (en) Electronic device and control method thereof
KR20160096030A (en) Electronic apparatus and control method of the same
JP2016009315A (en) Tactile sense control device, tactile sense control method, and program
JP6433144B2 (en) Electronic device, tactile sensation control method, and program
JP6061528B2 (en) Operating device, control method and program thereof, and recording medium
CN104793736B (en) Electronic installation and its control method
JP6530160B2 (en) Electronics
JP5943743B2 (en) Display control apparatus, control method thereof, and program
JP2020057122A (en) Electronic apparatus
JP2018132831A (en) Electronic device, electronic device control method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180619

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180801

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181106

R151 Written notification of patent or utility model registration

Ref document number: 6433144

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees