JP6433144B2 - Electronic device, tactile sensation control method, and program - Google Patents
Electronic device, tactile sensation control method, and program Download PDFInfo
- Publication number
- JP6433144B2 JP6433144B2 JP2014087722A JP2014087722A JP6433144B2 JP 6433144 B2 JP6433144 B2 JP 6433144B2 JP 2014087722 A JP2014087722 A JP 2014087722A JP 2014087722 A JP2014087722 A JP 2014087722A JP 6433144 B2 JP6433144 B2 JP 6433144B2
- Authority
- JP
- Japan
- Prior art keywords
- tactile sensation
- eyepiece
- display
- touch
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
Description
本発明は、電子機器、触感制御方法、プログラム及び記憶媒体に関する。 The present invention relates to an electronic device, a tactile sensation control method , a program, and a storage medium .
近年、表示装置と入力装置を兼ねたタッチパネルを備えた電子機器が多くなってきているが、より使いやすくてわかりやすいユーザインターフェースを提供することが商品性の向上につながることから、様々な工夫が行われている。
その中の一つに、操作をしたときに指先に触感を与えることによって、操作を行ったことをフィードバックする技術がある。触感フィードバックを用いることにより、ユーザは操作したことを視覚的に理解するだけではなく、指先の感覚としても理解することができるようになるため、より直観的な操作を行うことができるようになる。
触感フィードバックは、操作したことを通知する目的の他に、ユーザに何かを通知するような目的でも利用することができる。特許文献1には、タッチパネルを操作しているときの操作位置を検出して、操作位置が所定のエリア外に移動した場合に振動を与える技術が開示されている。特許文献2には、操作してはならないボタンを操作したことを通知するために振動を与える技術が開示されている。
In recent years, there are an increasing number of electronic devices equipped with a touch panel that serves as both a display device and an input device. However, providing more user-friendly and easy-to-understand user interfaces leads to an improvement in merchantability, so various measures have been taken. It has been broken.
One of them is a technology that feeds back the operation by giving a tactile sensation to the fingertip when the operation is performed. By using tactile feedback, the user not only visually understands the operation, but also understands it as a fingertip sensation, so that a more intuitive operation can be performed. .
The tactile feedback can be used not only for the purpose of notifying that the operation has been performed but also for the purpose of notifying the user of something. Japanese Patent Application Laid-Open No. 2004-228561 discloses a technique for detecting an operation position when operating a touch panel and applying vibration when the operation position moves out of a predetermined area. Patent Document 2 discloses a technique for applying vibration to notify that a button that should not be operated has been operated.
電子機器の中には、例えば、表示装置と入力装置を兼ねたタッチパネル式のLCDパネルと、表示装置としてのEVF(電子ビューファインダ)とを備えたビデオカメラのように、複数の表示装置を備えるものもある。このように、複数の表示装置を備えた電子機器において、触感フィードバックを用いた、使い勝手のよいユーザインターフェースの提供が望まれている。 Some electronic devices include a plurality of display devices such as a video camera including a touch panel type LCD panel that also serves as a display device and an input device, and an EVF (electronic viewfinder) as a display device. There are also things. As described above, it is desired to provide an easy-to-use user interface using tactile feedback in an electronic device including a plurality of display devices.
本発明はこのような問題点に鑑みなされたもので、複数の表示装置を備えた電子機器において、触感フィードバックを用いた、使い勝手のよいユーザインターフェースを提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an easy-to-use user interface using tactile feedback in an electronic device including a plurality of display devices.
そこで、本発明は、電気機器であって、撮像手段と、第1の表示手段と、前記第1の表示手段とは異なる位置に配置される電子ファインダとしての第2の表示手段と、前記第2の表示手段に対する接眼を検出する接眼検出手段と、前記第1の表示手段に対応して設けられた入力面への操作子による操作を検知する第1の検知手段と、前記操作子に振動を与える第1の触感と、前記第1の触感とは異なる触感であって前記操作子に振動を与える第2の触感と、前記第1の触感および前記第2の触感とは異なる触感であって前記操作子に振動を与える第3の触感とを生成する触感生成手段とを有し、前記触感生成手段は、前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示されたボタンの領域外をタッチしたことが検知された場合には触感を生成せず、前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内をタッチしたことが検知された場合には前記第1の触感を生成し、前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域外であって前記ボタンの周囲を取り囲むように設定された領域内にタッチしたことが検知された場合には前記第2の触感を生成し、前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの周囲を取り囲むように設定された領域の外にタッチしたことが検知された場合には触感を生成せず前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内にタッチしたことが検知された場合には前記第3の触感を生成することを特徴とする。 Therefore, the present invention is an electrical apparatus, which is an imaging unit, a first display unit, a second display unit as an electronic viewfinder disposed at a position different from the first display unit, and the first display unit . Eyepiece detecting means for detecting an eyepiece to the second display means, first detection means for detecting an operation by an operator on an input surface provided corresponding to the first display means, and vibration on the operator a first touch giving a second tactile giving vibration to the operator from the first touch to a different touch, there a different feel from that of the first touch and the second touch And a tactile sensation generating unit that generates a third tactile sensation that applies vibration to the manipulator, and the tactile sensation generating unit detects that the eyepiece is not detected by the eyepiece detection unit, and the first detection unit As the operation, the operation element displays the first display. When it is detected that a touch outside the area of the button displayed in the row is detected, no tactile sensation is generated, and an eyepiece is not detected by the eyepiece detection unit, and the operation is performed by the first detection unit as the operation. When it is detected that the operator has touched the area of the button displayed on the first display means, the first tactile sensation is generated, the eye detection is detected by the eye detection means, and the first touch is detected. It is detected by the one detection means that the operation element has touched the area outside the button area displayed on the first display means and set to surround the button as the operation. The second tactile sensation is generated, an eyepiece is detected by the eyepiece detection means, and the operation element is displayed on the first display means as the operation by the first detection means. When it is detected that a touch outside the area set to surround the tongue is detected, the eye detection unit detects the eye contact without generating a tactile sensation, and the first detection unit performs the operation as the operation. The third tactile sensation is generated when it is detected that the operator has touched the area of the button displayed on the first display means .
本発明によれば、複数の表示装置を備えた電子機器において、触感フィードバックを用いた、使い勝手のよいユーザインターフェースを提供することができる。 According to the present invention, it is possible to provide an easy-to-use user interface using tactile feedback in an electronic device including a plurality of display devices.
以下、本発明の実施形態について図面に基づいて説明する。
図1は、電子機器100を示す図である。電子機器100としては、携帯電話、デジタルカメラ、デジタルビデオカメラ、スマートフォン等が挙げられる。なお、本実施形態においては、電子機器100は、2つの画面を有するものとする。以下においては、電子機器100がデジタルビデオカメラである場合を例に説明する。
図1に示すように電子機器100は、CPU101、メモリ102、不揮発性メモリ103、画像処理部104、LCDパネル112、操作部106、記録媒体I/F107、外部I/F109、通信I/F110及び撮像部105を有している。電子機器100はまた、LCDパネル112、LCDパネル切換部113、EVF(電子ファインダ)114、EVF切換部115、切換検出部116、接眼検知部117、荷重検出部121、パネル触感生成部122及び筐体触感生成部123を有している。これら各部は、内部バス150に接続され、内部バス150を介して互いにデータのやりとりを行うことができる。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating an
As shown in FIG. 1, the
メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリ等)を有している。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、電子機器100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラム等が格納されている。不揮発性メモリ103は、例えばハードディスク(HD)やROM等を有している。
なお、後述する電子機器100の機能や処理は、CPU101が不揮発性メモリ103等に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
The
Note that the functions and processing of the
画像処理部104は、CPU101の制御に基づいて、画像データに対して各種画像処理を施す。画像処理が施される画像データとしては、不揮発性メモリ103や記録媒体108に格納された画像データ、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像データ、撮像部105で撮像された画像データ等がある。
画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理等が含まれる。画像処理部104は、例えば、特定の画像処理を施すための専用の回路ブロックである。また、画像処理の種別によっては、画像処理部104ではなく、CPU101がプログラムに従って画像処理を実行することもできる。
The
The image processing performed by the
LCDパネル112とEVF114は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面等を表示する。CPU101は、プログラムに従い表示制御信号を生成し、LCDパネル112に表示するための映像信号を生成しLCDパネル112に出力するように電子機器100の各部を制御する。CPU101は、またプログラムに従い表示制御信号を生成し、EVF114に表示するための映像信号を生成しEVF114に出力するように電子機器100の各部を制御する。そして、LCDパネル112とEVF114は、出力された映像信号に基づいて映像を表示する。
LCDパネル切換部113及びEVF切換部115は、LCDパネル112及びEVF114を排他的に使用する場合や、一方を使用しない場合の制御等の目的のため、それぞれLCDパネル112及びEVF114への映像の出力及び出力停止を制御する。切換検出部116は、LCDパネル切換部113及びEVF切換部115の切り換えを行うための情報を取得するための検出部である。LCDパネル112及びEVF114の制御としては、LCDパネル112の開閉検出に応じた排他制御、EVF114の引き出し検出に応じた排他制御、EVF114への接眼検出に応じた排他制御等が挙げられる。
なお、他の例としては、電子機器100は、LCDパネル112及びEVF114を有さず、LCDパネル112やEVF114に表示させる映像信号を出力するためのインターフェースを有することとしてもよい。この場合に、電子機器100は、外付けのモニタ(テレビ等)に対し画像等を表示するものとする。
The
The LCD
As another example,
操作部106は、キーボード等の文字情報入力デバイスや、マウスやタッチパネル120等ポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッド等、ユーザ操作を受け付けるための入力デバイスである。タッチパネル120は、LCDパネル112に重ね合わせて平面的に構成され、接触された位置に応じた座標情報を出力する入力デバイス(入力面)である。
記憶媒体I/F107には、メモリーカードやCD、DVD等の記録媒体108が装着可能である。記憶媒体I/F107は、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出しや、装着された記録媒体108へのデータの書き込みを行う。
The
A recording medium 108 such as a memory card, CD, or DVD can be attached to the storage medium I /
外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111等と通信(電話通信を含む)して、ファイルやコマンド等の各種データの送受信を行うためのインターフェースである。
撮像部105は、CCDセンサやCMOSセンサ等の撮像素子、ズームレンズ、フォーカスレンズ、シャッター、絞り、測距部、A/D変換器等を有するカメラユニットである。撮像部105は、静止画及び動画を撮像することができる。撮像部105により撮像された画像の画像データは、画像処理部104に送信され、画像処理部104において、各種処理を施された後、静止画ファイル又は動画ファイルとして記録媒体108に記録される。
接眼検知部117は、操作者がEVF114を覗いていることを検知するためのセンサである。接眼検知部117は、EVF114近傍に設けられた赤外発光装置と、その反射光を検出する受講装置とを含んでいる。
The external I /
The
The eyepiece detection unit 117 is a sensor for detecting that the operator is looking into the
CPU101は、タッチパネル120から出力されたタッチ位置の座標情報を、内部バス150を介して受信する。そして、CPU101は、座標情報に基づいて、以下の操作や状態を検出する。
・タッチパネル120を指やペンで触れる操作(以下、タッチダウンと称する)。
・タッチパネル120を指やペンで触れている状態(以下、タッチオンと称する)。
・タッチパネル120を指やペンで触れたまま移動する操作(以下、ムーブと称する)。
・タッチパネル120へ触れていた指やペンを離す操作(以下、タッチアップと称する)。
・タッチパネル120に何も触れていない状態(以下、タッチオフと称する)。
CPU101はさらに、ムーブを検出した場合には、タッチ位置の座標変化に基づいて、指やペンの移動方向を判定する。具体的には、CPU101は、タッチパネル120上における移動方向の垂直成分及び水平成分それぞれを判定する。
The
An operation of touching the
A state where the
An operation of moving the
An operation of releasing a finger or pen that has been touching the touch panel 120 (hereinafter referred to as touch-up).
A state in which nothing touches the touch panel 120 (hereinafter referred to as touch-off).
Further, when the
CPU101はまた、ストローク、フリック及びドラッグの各操作を検出する。CPU101は、タッチダウンから一定のムーブを経てタッチアップが行われた場合に、ストロークを検出する。CPU101は、所定距離以上且つ所定速度以上のムーブが検出され、続けてタッチアップが検出された場合に、フリックを検出する。CPU101はまた、所定距離以上且つ所定速度未満のムーブが検出された場合に、ドラッグを検出する。
なお、フリックは、タッチパネル120上に指を触れたまま、ある程度の距離だけ素早く動かし、そのまま指をタッチパネル120から離す操作である。すなわち、フリックは、タッチパネル120上を指ではじくように素早くなぞる操作である。
The
Note that the flick is an operation of quickly moving a certain distance while touching the finger on the
タッチパネル120は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
荷重検出部121は、接着等によりタッチパネル120と一体に設けられている。荷重検出部121は、歪みゲージセンサであり、タッチ操作の押圧力に応じてタッチパネル120が微少量撓む(歪む)ことを利用して、タッチパネル120に加わる荷重(押圧力)を検出する。他の例としては、荷重検出部121は、LCDパネル112と一体に設けられてもよい。この場合、荷重検出部121は、LCDパネル112を介して、タッチパネル120に加わる荷重を検出する。
The
The
パネル触感生成部122は、タッチパネル120を操作する指やペン等の操作子に与える触感を生成する。すなわち、パネル触感生成部122は、タッチしている部位を通じて、タッチを行っているユーザが感知可能な刺激を発生させる。パネル触感生成部122は、接着等によりタッチパネル120と一体に設けられている。パネル触感生成部122は、圧電(ピエゾ)素子、より具体的には圧電振動子であり、CPU101の制御の下、任意の振幅及び周波数で振動する。これにより、タッチパネル120が湾曲振動し、タッチパネル120の振動が操作子に触感として伝わる。すなわち、パネル触感生成部122は、自身が振動することにより、操作子に触感を与えるものである。
他の例としては、パネル触感生成部122は、LCDパネル112と一体に設けられていてもよい。この場合、パネル触感生成部122は、LCDパネル112を介して、タッチパネル120を湾曲振動させる。
The panel tactile
As another example, the panel
なお、CPU101は、パネル触感生成部122の振幅及び周波数を変更し、様々なパターンでパネル触感生成部122を振動させることにより、様々なパターンの触感を生成させることができる。
The
また、CPU101は、タッチパネル120において検出されたタッチ位置と、荷重検出部121により検出された押圧力に基づいて、触感を制御することができる。例えば、操作子のタッチ操作に対応し、CPU101が、LCDパネル112に表示されたボタンアイコンに対応するタッチ位置を検出し、荷重検出部121が、所定値以上の押圧力を検出したとする。この場合、CPU101は、1周期前後の振動を生成する。これにより、ユーザは、あたかも機械的なボタンを押しこんだ際のクリック感のような触感を知覚することができる。
さらにCPU101は、ボタンアイコンの位置へのタッチを検出している状態で所定値以上の押圧力を検出した場合にのみ、ボタンアイコンの機能を実行するものとする。すなわち、CPU101は、単にボタンアイコンに触れた場合のように弱い押圧力を検知した場合には、ボタンアイコンの機能を実行しない。これにより、ユーザは、機械的なボタンを押しこんだ際と同じような感覚で操作を行うことができる。
なお、荷重検出部121は、歪みゲージセンサに限定されるものではない。他の例としては、荷重検出部121は、圧電素子を有してもよい。この場合、荷重検出部121は、押圧力に応じて圧電素子から出力される電圧に基づいて、荷重を検出する。さらに、この場合の荷重検出部121としての圧力素子は、パネル触感生成部122としての圧力素子と共通であってもよい。
Further, the
Further, the
The
また、パネル触感生成部122は、圧力素子による振動を生成するものに限定されるものではない。他の例としては、パネル触感生成部122は、電気的な触感を生成するものであってもよい。例えば、パネル触感生成部122は、導電層パネルと絶縁体パネルを有する。ここで、導電層パネルと絶縁体パネルは、タッチパネル120と同様に、LCDパネル112に重ね合わされ、平面的に設けられている。そして、ユーザが絶縁体パネルに触れると、導電層パネルに正電荷がチャージされる。すなわち、パネル触感生成部122は、導電層パネルに正電荷をチャージすることにより、電気刺激としての触感を生成することができる。また、パネル触感生成部122は、ユーザに、クーロン力により皮膚が引っ張られるような感覚(触感)を与えるものであってもよい。
また他の例としては、パネル触感生成部122は、正電荷をチャージするか否かを、パネル上の位置毎に選択可能な導電層パネルを有してもよい。そして、CPU101は、正電荷のチャージ位置を制御する。これにより、パネル触感生成部122は、ユーザに「ゴツゴツ感」、「ザラザラ感」、「さらさら感」等、様々な触感を与えることができる。
また、他の例としては、パネル触感生成部122は、タッチパネル120の表面を超音波振動させることにより触感を生成してもよい。超音波振動により、タッチパネル120と指との間に高圧の空気膜が形成される。そこで、パネル触感生成部122は、この空気膜の浮揚作用により「ツルツル感」を与え、浮揚作用の大きさを瞬時に切り替えることにより「ザラザラ感」を与えてもよい。
Further, the panel tactile
As another example, the panel
As another example, the panel
筐体触感生成部123は、電子機器100の全体を振動させることにより、触感を生成する。筐体触感生成部123は、例えば偏心モーター等を有し、公知のバイブレーション機能等を実現する。これにより、電子機器100は、筐体触感生成部123が生成する振動により、電子機器100を保持するユーザの手等に触感を与えることができる。
The case tactile
図2は、電子機器100による、触感制御処理を示すフローチャートである。本実施形態に係る電子機器100は、EVF114を使用中か否かに基づいて、触感生成を制御する。具体的には、電子機器100は、EVF114が使用されておらず、LCDパネル112のみ使用中の場合には、触感を生成せず、EVF114も使用中の場合には、触感を生成する。
図3は、LCDパネル112に表示される画面例を示す図である。図3に示す画面301には、2つのボタン302,303が表示されている。ユーザは、これらのボタン302,303をタッチすることにより、電子機器100に対し指示を入力する。なお、EVF114には、LCDパネル112に表示されている画面と同様の画面が表示されてもよく、また異なる画面が表示されてもよい。
FIG. 2 is a flowchart showing tactile sensation control processing by the
FIG. 3 is a view showing an example of a screen displayed on the
ユーザにより、タッチパネル120への操作を受け付けると、S201において、電子機器100のCPU101は、操作子による操作を検知し(検知処理)、タッチパネル120への操作を受け付ける。このとき受け付ける操作としては、先に説明したように、タッチダウン、タッチオン、ムーブ、タッチアップ、タッチオフ等がある。以下、ユーザによる操作子を用いたタッチパネル120への操作をパネル操作と適宜称することとする。次に、S202において、CPU101は、パネル操作におけるタッチ位置のタッチ座標を取得する。
次に、S203において、CPU101は、タッチ位置がボタン領域内か否かを確認する。例えば、図3に示す例においては、CPU101は、タッチ位置がボタン302,303内の座標である場合に、タッチ位置がボタン領域内であると判断する。CPU101は、タッチ位置がボタン領域内の場合に(S203でYES)、処理をS204へ進める。CPU101は、タッチ位置がボタン領域外の場合に(S203でNO)、処理をS211へ進める。
When an operation on the
Next, in S203, the
S204において、CPU101は、ボタンを操作したという情報をイベント情報に変換する。ここで、イベント情報とは、操作されたボタンに割り当てられている機能を実行するためのコマンドである。コマンドとしては、メニュー画面を開く、現在の画面を閉じる等の機能を実行する等が挙げられる。S205において、CPU101は、変換後のイベント情報を受け付けたことをユーザに通知するために、操作されたボタンの表示を制御する。具体的には、CPU101は、ボタンが押されたように見えるように、ボタンの表示態様を変更するような画像処理を行う。
S206において、CPU101は、イベント情報が、処理時点の場面において、有効か否かを判定する。具体的には、CPU101は、電子機器100がイベント情報に相当する機能を有さない場合や、機能を動作できない状況にある場合に、イベント情報は無効であると判定する。CPU101は、イベント情報が有効である場合には(S206でYES)、処理をS207へ進める。CPU101は、イベント情報が無効である場合には(S206でNO)、処理をS211へ進める。
In step S204, the
In S206, the
S207において、CPU101は、EVF114の使用状況を取得する。次に、S208において、CPU101は、使用状況からEVF114が使用中か否かを確認する(確認処理)。本実施形態においては、電子機器100は、EVF114への接眼の有無を検知する接眼検知部117による検知結果を使用状況として取得する。そして、CPU101は、使用状況において、接眼を検知したことを示す使用状況を取得した場合に、EVF114を使用中と判断し、接眼を検知しなかったことを示す使用状況を取得した場合に、EVF114を使用中でないと判断する。なお、使用中か否かを判断するための具体的な処理は、実施形態に限定されるものではない。
他の例としては、CPU101は、EVF114の引き出しを検出する検出部(不図示)による検知結果を使用状況として取得してもよい。この場合、CPU101は、引き出しを検出したことを示す使用状況を取得した場合に、EVF114を使用中と判断し、引き出しを検出しなかったことを示す使用状況を取得した場合に、EVF114を使用中でないと判断する。
In S207, the
As another example, the
CPU101は、EVF114が使用中の場合には(S208でYES)、処理をS209へ進める。CPU101は、EVF114が使用中でない場合には(S208でNO)、処理をS210へ進める。S209において、CPU101は、パネル触感生成部122を制御し、タッチパネル120を介して操作子に与える触感を生成する(触感制御処理)。
次に、S210において、CPU101は、イベント情報に係るイベントを実行する。次に、S211において、CPU101は、処理が完了したか否かを判定する。CPU101は、処理が完了したと判断した場合には、触感制御処理を終了する。CPU101は、処理が完了していないと判断した場合には、処理をS201へ進める。
If the
Next, in S210, the
以上のように、第1の実施形態に係る電子機器100は、EVF114の使用中に、タッチパネル120へのタッチ操作が行われた場合には、操作子に対して与える触感を生成する。これにより、ユーザは、LCDパネル112を見ないでタッチ操作を行った場合であっても、電子機器100がタッチ操作を認識したか否かを把握することができる。すなわち、本実施形態に係る電子機器100は、複数の表示装置を備えた電子機器において、触感フィードバックを用いた、使い勝手のよいユーザインターフェースを提供することができる。
As described above, when the touch operation on the
触感制御処理は、電子機器100の最低限の動作であり、電子機器100は、さらに以下に説明するような表示制御処理を実行する。これにより、更なる使い勝手の向上を図ることができる。
図4は、LCDパネル112が使用中であり、かつEVF114が使用されていない場合に、電子機器100により実行される第1の表示制御処理を示すフローチャートである。なお、第1の表示制御処理は、図2を参照しつつ説明した触感制御処理と並行して行われる。S401において、CPU101は、切換検出部116から切換情報を取得する。ここで、切換情報は、表示を行う装置のLCDパネル112及びEVF114の間での切り換えが検出されたか否かを示す情報である。
The tactile sensation control process is a minimum operation of the
FIG. 4 is a flowchart illustrating a first display control process executed by the
次に、S402において、CPU101は、切換情報に基づいて、LCDパネル112からEVF114への表示の切り換えが検出されたか否かを確認する。CPU101は、切り換えが検出された場合には(S402でYES)、処理をS404へ進める。CPU101は、切り換えが検出されなかった場合には(S402でNO)、処理をS403へ進める。
S403において、CPU101は、LCDパネル112の表示を継続する。一方、S404において、CPU101は、LCDパネル112を非表示状態とする。そして、S405において、CPU101は、EVF114の表示を行う。なお、本処理は、図2に示す表示制御処理の中に組み込まれ、実行されてもよい。また、他の例としては、CPU101は、S404において、LCDパネル112の表示画像をより低輝度な画像に変更することにより、LCDパネル112を低輝度状態としてもよい。
このように、CPU101は、EVF114が使用中の場合や、ユーザがLCDパネル112を見ないで操作を行う場合等に、切換情報に基づいて、LCDパネル112及びEVF114に排他的な表示を実現することができる。
Next, in S402, the
In S403, the
As described above, the
図5は、LCDパネル112の使用中に、電子機器100により実行される第2の表示制御処理を示すフローチャートである。第2の表示制御処理により、タッチパネル120へのタッチ操作の操作位置がEVF114に表示される。これにより、操作性を向上させることができる。
S501において、CPU101は、タッチ操作が行われたタッチ座標を取得する。次に、S502において、CPU101は、EVF114が使用中か否かを判定する。S502の処理は、S208の処理と同様である。CPU101は、EVF114が使用中の場合には(S502でYES)、処理をS503へ進める。CPU101は、EVF114が使用中でない場合には(S502でNO)、第2の表示制御処理を終了する。
S503において、CPU101は、LCDパネル112上のタッチ位置のタッチ座標をEVF114における座標に変換する。次に、S504において、EVF114に、タッチ位置を示すガイド画像を表示する。以上で、第2の表示制御処理は終了する。なお、本処理は、図2に示す表示制御処理の中に組み込まれ、実行されてもよい。
FIG. 5 is a flowchart showing a second display control process executed by the
In step S <b> 501, the
In step S <b> 503, the
図6は、第2の表示制御処理を説明するための図である。図6(A)は、LCDパネル112を示す図である。LCDパネル112には、ボタン600が表示されている。図6(B)は、EVF114を示す図である。EVF114には、ボタン600に対応するボタン610が表示されている。この状態において、図6(A)に示すように、LCDパネル112に対応するタッチパネル120上において、位置601へのタッチ操作が行われたとする。この場合、図6(B)に示すように、EVF114は、位置601に対応する位置611に、タッチ位置を示すガイド画像612を表示する。
FIG. 6 is a diagram for explaining the second display control process. FIG. 6A shows the
次に、第1の実施形態に係る電子機器100の変更例について説明する。図7は、変更例に係る、第2の表示制御処理を示すフローチャートである。なお、図7において、第1の実施形態に係る、第2の表示制御処理中の各処理と同様の処理には、同一の番号を付している。変更例においては、電子機器100は、タッチパネル120上の特定の位置がタッチされた場合にのみ、EVF114に、タッチ位置を示すガイド画像を表示する。これにより、電子機器100の制御負担を軽減することができ、また、EVF114に不必要な表示が行われるのを防ぐことができる。
以下、変更例に係る第2の表示制御処理の、第1の実施形態に係る第2の表示制御処理と異なる点について説明する。CPU101は、S502において、EVF114が使用中の場合には(S502でYES)、処理をS701へ進める。S701において、CPU101は、タッチ位置が特定位置か否かを確認する。ここで、特定位置は、予め定められた位置であり、例えば、不揮発性メモリ103等に設定されているものとする。CPU101は、タッチ位置が特定位置である場合には(S701でYES)、処理をS503へ進める。CPU101は、タッチ位置が特定位置以外の位置である場合には(S701でNO)、第2の表示制御処理を終了する。
Next, a modification example of the
Hereinafter, differences of the second display control process according to the modified example from the second display control process according to the first embodiment will be described. If the
図8は、変更例に係る第2の表示制御処理を説明するための図である。図8(A)は、特定位置を示す図である。本例においては、図8(A)に示すように、縦方向と横方向の線の交際値が特定位置として定められている。なお、CPU101は、LCDパネル112に特定位置を示す点又は格子を表示してもよく、表示しなくともよい。図8(A)に示す特定位置801がタッチされると、EVF114は、図8(B)に示すように、タッチされた特定位置801に対応する位置811に、タッチ位置を示すガイド画像812を表示する。
FIG. 8 is a diagram for explaining the second display control process according to the modified example. FIG. 8A shows a specific position. In this example, as shown in FIG. 8A, the intersection value of the vertical and horizontal lines is determined as the specific position. Note that the
(第2の実施形態)
第2の実施形態に係る電子機器100は、EVF114が使用中か否かに応じて、触感制御を異ならせる。図9は、第2の実施形態に係る電子機器100による、触感制御処理を示すフローチャートである。図9において、第1の実施形態に係る触感制御処理の各処理と同様の処理には、同一の番号を付している。ここでは、第2の実施形態に係る触感制御処理について、第1の実施形態に係る触感制御処理と異なる点について説明する。
(Second Embodiment)
The
CPU101は、S208において、EVF114が使用中でない場合には(S208でNO)、処理をS901へ進める。S901において、CPU101は、第1の触感制御を行う。ここで、第1の触感制御は、パネル触感生成部122を制御し、操作子に与える第1の触感を生成する処理である。CPU101はまた、S208において、EVF114が使用中の場合には(S208でYES)、処理をS902へ進める。
S902において、CPU101は、第2の触感制御を行う。ここで、第2の触感制御は、パネル触感生成部122を制御し、操作子に与える第2の触感を生成する処理である。ここで、第1の触感及び第2の触感は異なる触感である。異なる触感とは、触感の強度、又はゴツゴツ感、ざらざら感といった触感の種類のうち少なくとも一方が異なる触感である。なお、S901及びS902の処理は、触感制御処理の一例である。第2の実施形態に係る電子機器100のこれ以外の構成及び処理は、第1の実施形態に係る電子機器100の構成及び処理と同様である。
以上のように、第2の実施形態に係る電子機器100は、EVF114が使用中か否かに応じて、異なる触感を生成する。これにより、使い勝手のよりユーザインターフェースを提供することができる。
If the
In step S902, the
As described above, the
第2の実施形態に係る電子機器100の変更例としては、第2の触感制御は、筐体触感生成部123を制御し、電子機器100全体を振動させることによる触感を生成させる処理であってもよい。これにより、電子機器100は、操作子をタッチパネル120に接触させていない場合においても、ユーザに触感を与えることができる。
As a modification example of the
(第3の実施形態)
第3の実施形態に係る電子機器100は、EVF114が使用中か否か及びタッチ位置に応じて、触感制御を異ならせる。図10は、第3の実施形態に係る電子機器100による、触感制御処理を示すフローチャートである。ここでは、第3の実施形態に係る触感制御処理について、第1の実施形態に係る触感制御処理と異なる点について説明する。
(Third embodiment)
The
図11は、LCDパネル112の表示例を示す図である。図11(A)は、EVF114が使用中の場合に表示される画面1101を示す図である。画面1101には、第1の領域1102が設定されている。ここで、第1の領域1102は、例えばユーザ操作を受け付けるためのボタンが表示されている領域である。
図11(B)は、EVF114が使用中でない場合に表示される画面1111を示す図である。画面1111には、第2の領域1112及び第3の領域1113が設定されている。ここで、第3の領域1113はボタンが表示されている領域である。第2の領域1112は、第3の領域1113の周囲の所定範囲の領域である。
なお、第1の領域1102と、第3の領域1113とは、同一領域であってもよく、異なる領域であってもよい。なお、いずれの場合も、第1の領域1102及び第3の領域1113は、ボタンが表示されている領域であるものとする。
FIG. 11 is a diagram illustrating a display example of the
FIG. 11B is a diagram showing a
Note that the
以下、図11に示す画面1101,1111が表示される場合の、触感制御処理について説明する。CPU101は、S202において、タッチ座標を取得した後、処理をS1001へ進める。S1001において、CPU101は、EVF114の使用状況を取得する。次に、S1002において、CPU101は、EVF114が使用中か否かを確認する。CPU101は、EVF114が使用中の場合には(S1002でYES)、処理をS1007へ進める。CPU101は、EVF114が使用中でない場合には(S1002でNO)、処理をS1003へ進める。
Hereinafter, tactile sensation control processing when the
S1003において、CPU101は、タッチ位置が第1の領域1102内か否かを確認する。CPU101は、タッチ位置が第1の領域1102内の場合には(S1003でYES)、処理をS1004へ進める。CPU101は、タッチ位置が第1の領域1102外の場合には(S1003でNO)、処理をS211へ進める。S1004において、CPU101は、タッチ座標を第1イベントに変換する。次に、S1005において、CPU101は、操作されたボタンの表示を制御する。次に、S1006において、CPU101は、第1の触感制御を行い、その後処理をS210へ進める。ここで、第1の触感制御は、パネル触感生成部122を制御して、第1の触感を生成する処理である。
In step S <b> 1003, the
一方で、S1007において、CPU101は、タッチ位置が第2の領域1112内か否かを確認する。CPU101は、タッチ位置が第2の領域1112内の場合には(S1007でYES)、処理をS1008へ進める。CPU101は、タッチ位置が第2の領域1112外の場合には(S1007でNO)、処理をS1010へ進める。
S1008において、CPU101は、タッチ座標を第2イベントに変換する。次に、S1009において、CPU101は、第2の触感制御を行い、その後処理をS210へ進める。ここで、第2の触感制御は、パネル触感生成部122を制御して、第1の触感と異なる第2の触感を生成する処理である。
On the other hand, in S <b> 1007, the
In step S1008, the
また、S1010において、CPU101は、タッチ位置が第3の領域1113内か否かを確認する。CPU101は、タッチ位置が第3の領域1113内の場合には(S1010でYES)、処理をS1011へ進める。CPU101は、タッチ位置が第3の領域1113外の場合には(S1010でNO)、処理をS211へ進める。
S1011において、CPU101は、タッチ座標を第3イベントに変換する。次に、S1012において、CPU101は、操作されたボタンの表示を制御する。次に、S1013において、CPU101は、第3の触感制御を行い、その後処理をS210へ進める。ここで、第3の触感制御処理は、パネル触感生成部122を制御して、第1の触感及び第2の触感のいずれとも異なる第3の触感を生成する処理である。なお、第1イベント、第2イベント及び第3イベントは、S210において実行される。
なお、第3の実施形態に係る電子機器100のこれ以外の構成及び処理は、他の実施形態に係る電子機器100の構成及び処理と同様である。
In step S <b> 1010, the
In step S1011, the
The remaining configuration and processing of the
以上のように、第3の実施形態に係る電子機器100は、EVF114が使用中か否かだけでなく、タッチ位置に応じて、異なる触感を生成する。これにより、例えば、EVF114を見ながら、タッチパネル120を操作する際の誤操作を防ぐことができる。したがって、使い勝手のよりユーザインターフェースを提供することができる。
As described above, the
第3の実施形態の第1の変更例としては、第1の触感、第2の触感及び第3の触感のうち少なくとも2つの触感は、同一であってもよい。また、CPU101は、予め設定された領域の数に応じて、複数の触感制御を行えばよく、その数は、実施形態に限定されるものではない。
As a first modification of the third embodiment, at least two of the first tactile sensation, the second tactile sensation, and the third tactile sensation may be the same. Further, the
第2の変更例としては、第2の触感制御及び第3の触感制御のうち少なくとも一方は、筐体触感生成部123を制御し、電子機器100全体を振動させることにより触感を生成させる処理であってもよい。これにより、電子機器100は、操作子をタッチパネル120に接触させていない場合においても、ユーザに触感を与えることができる。さらに、この場合、第2の触感制御において生成する第2の触感と、第3の触感制御において生成する第3の触感とは同一の触感であってもよく、異なる触感であってもよい。ここで、異なる触感とは、振動の大きさ、振動のパターンのうち少なくとも一方が異なる振動により生じる触感である。
As a second modification, at least one of the second tactile sensation control and the third tactile sensation control is a process of controlling the housing tactile
(第4の実施形態)
第4の実施形態に係る電子機器100は、EVF114が使用中か否か及びタッチ操作における押圧力に応じて、触感制御を異ならせる。図12は、第4の実施形態に係る電子機器100による、触感制御処理を示すフローチャートである。ここでは、第4の実施形態に係る触感制御処理について、第1の実施形態に係る触感制御処理と異なる点について説明する。
CPU101は、S202の処理の後、処理をS1201へ進める。S1201において、CPU101は、荷重検出部121からタッチ操作の操作時の押圧力を示す押圧値を取得し、その後処理をS203へ進める。その後、CPU101は、S203〜S208の処理を行う。CPU101は、S208において、EVF114が使用中の場合には(S208でYES)、処理をS1203へ進める。CPU101は、EVF114が使用中でない場合には(S208でNO)、処理をS1202へ進める。S1202において、CPU101は、第1の触感制御を行う。ここで、第1の触感制御は、パネル触感生成部122を制御し、操作子に与える第1の触感を生成する処理である。
(Fourth embodiment)
The
After the process of S202, the
また、S1203において、CPU101は、S1201において取得した押圧値が予め設定された基準値以上か否かを判断する。CPU101は、押圧値が基準値以上の場合には(S1203でYES)、処理をS1205へ進める。CPU101は、押圧値が基準値未満の場合には(S1203でNO)、処理をS1204へ進める。
S1204において、CPU101は、第2の触感制御を行う。また、S1205においては、CPU101は、第3の触感制御を行う。ここで、第2の触感制御は、パネル触感生成部122を制御し、操作子に与える第2の触感を生成する処理である。また、第3の触感制御は、パネル触感生成部122を制御し、操作子に与える第3の触感を生成する処理である。ここで、第1の触感、第2の触感及び第3の触感は、いずれも異なる触感であるものとする。なお、他の例としては、第1の触感、第2の触感及び第3の触感のうち少なくとも2つの触感は、同一の触感であってもよい。
In step S1203, the
In step S1204, the
CPU101は、例えば、S1202において、ボタン操作に対応する触感(第1の触感)を生成する。また、CPU101は、押圧力が基準値未満の場合には、S1204において、ボタンに触れたことをユーザに知らせるための触感(第2の触感)を生成する。そして、CPU101は、押圧力が基準値以上となった場合に、S1205において、静止画を記録することをユーザに知らせるための触感(第3の触感)を生成する。これにより、静止画の記録指示を受け付けるフォトボタンのような2段階操作それぞれを受け付けたことをユーザに知らせることができる。
また、S210において、CPU101は、各条件に応じたイベントを実行する。例えば、静止画記録の例においては、CPU101は、EVF114が使用中でない場合には、S210において、静止画を記録する。また、CPU101は、EVF114が使用中でかつ押圧値が基準値未満の場合には、S210において、合焦動作のみを実行する。また、CPU101は、EVF114が使用中でかつ押圧値が基準値以上の場合には、S210において、静止画を記録する。
なお、第4の実施形態に係る電子機器100のこれ以外の構成及び処理は、他の実施形態に係る電子機器100の構成及び処理と同様である。
For example, in S1202, the
In S210, the
The remaining configuration and processing of the
以上のように、本実施形態に係る電子機器100は、EVF114が使用中か否かだけでなく、押圧力に応じて、異なる触感を生成する。これにより、押圧力に応じて異なる指示を受け付けたことを、ユーザに通知することができる。
As described above, the
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
<Other embodiments>
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media. Then, the computer (or CPU, MPU, etc.) of the system or apparatus reads and executes the program.
以上、上述した各実施形態によれば、複数の表示装置を備えた電子機器において、触感フィードバックを用いた、使い勝手のよいユーザインターフェースを提供することができる。 As mentioned above, according to each embodiment mentioned above, in an electronic device provided with a plurality of display devices, it is possible to provide an easy-to-use user interface using tactile feedback.
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。 The preferred embodiments of the present invention have been described in detail above, but the present invention is not limited to such specific embodiments, and various modifications can be made within the scope of the gist of the present invention described in the claims.・ Change is possible.
100 電子機器、101 CPU、102 メモリ、103 不揮発性メモリ、112 LCDパネル、114 EVF、120 タッチパネル、121 荷重検出部、122 パネル触感生成部、123 筐体触感生成部 100 electronic equipment, 101 CPU, 102 memory, 103 nonvolatile memory, 112 LCD panel, 114 EVF, 120 touch panel, 121 load detection unit, 122 panel touch generation unit, 123 housing touch generation unit
Claims (7)
第1の表示手段と、
前記第1の表示手段とは異なる位置に配置される電子ファインダとしての第2の表示手段と、
前記第2の表示手段に対する接眼を検出する接眼検出手段と、
前記第1の表示手段に対応して設けられた入力面への操作子による操作を検知する第1の検知手段と、
前記操作子に振動を与える第1の触感と、前記第1の触感とは異なる触感であって前記操作子に振動を与える第2の触感と、前記第1の触感および前記第2の触感とは異なる触感であって前記操作子に振動を与える第3の触感とを生成する触感生成手段と
を有し、
前記触感生成手段は、
前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示されたボタンの領域外をタッチしたことが検知された場合には触感を生成せず、
前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内をタッチしたことが検知された場合には前記第1の触感を生成し、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域外であって前記ボタンの周囲を取り囲むように設定された領域内にタッチしたことが検知された場合には前記第2の触感を生成し、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの周囲を取り囲むように設定された領域の外にタッチしたことが検知された場合には触感を生成せず、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内にタッチしたことが検知された場合には前記第3の触感を生成する
ことを特徴とする電子機器。 Imaging means;
First display means;
Second display means as an electronic viewfinder disposed at a position different from the first display means;
Eyepiece detecting means for detecting an eyepiece with respect to the second display means;
First detection means for detecting an operation by an operator on an input surface provided corresponding to the first display means;
A first tactile giving vibration to the operator, a second touch giving vibration to the operator of a different tactile sensation as the first touch, and the first touch and the second touch Has a tactile sensation generating means for generating a third tactile sensation having different tactile sensations and applying vibration to the operation element ,
The tactile sensation generating means includes
When an eyepiece is not detected by the eyepiece detection means, and the first detection means detects that the operation element touches outside the area of the button displayed on the first display means as the operation. Does not generate a touch,
The eyepiece detecting means detects that the eyepiece is not detected, and the first detecting means detects that the operation element has touched the area of the button displayed on the first display means as the operation. If the first tactile sensation is generated,
An eyepiece is detected by the eyepiece detecting means, and the operation element is outside the area of the button displayed on the first display means as the operation by the first detecting means so as to surround the button. When it is detected that a touch has been made within the set area, the second tactile sensation is generated,
An eyepiece is detected by the eyepiece detection means, and the operation element touches outside the region set to surround the button displayed on the first display means as the operation by the first detection means. Does not generate a tactile sensation,
When the eyepiece is detected by the eyepiece detection unit, and the first detection unit detects that the operation element has touched the button area displayed on the first display unit as the operation. An electronic apparatus that generates the third tactile sensation .
前記表示制御手段は、The display control means includes
前記触感生成手段により前記第1の触感および前記第3の触感が生成される場合には前記ボタンの表示形態を変更する表示を行い、When the first tactile sensation and the third tactile sensation are generated by the tactile sensation generating means, a display for changing the display form of the buttons is performed,
前記第2の触感が生成される場合および触感が生成されない場合には前記ボタンの表示形態を変更する表示を行わないように制御することを特徴とする請求項1に記載の電子機器。2. The electronic device according to claim 1, wherein when the second tactile sensation is generated and when the tactile sensation is not generated, control is performed so as not to perform display for changing a display form of the button.
前記接眼検出手段により接眼が検出されていないときに前記第1の表示手段に表示されるボタンの領域とは、同一領域であることを特徴とする請求項1又は2に記載の電子機器。 A region of a button displayed on the first display means when an eyepiece is detected by the eyepiece detection means;
3. The electronic device according to claim 1 , wherein an area of the button displayed on the first display unit when the eyepiece is not detected by the eyepiece detection unit is the same region. 4.
第1の表示手段と、
前記第1の表示手段とは異なる位置に配置される電子ファインダとしての第2の表示手段と、
前記第2の表示手段に対する接眼を検出する接眼検出手段と、
前記第1の表示手段に対応して設けられた入力面への操作子による操作を検知する第1の検知手段と、
前記操作子に振動を与える第1の触感と、前記第1の触感とは異なる触感であって前記操作子に振動を与える第2の触感と、前記第1の触感および前記第2の触感とは異なる触感であって前記操作子に振動を与える第3の触感とを生成する触感生成手段と
を有する電子機器が実行する触感制御方法であって、
前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示されたボタンの領域外をタッチしたことが検知された場合には触感を生成せず、
前記接眼検出手段により接眼が検出されておらず、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内をタッチしたことが検知された場合には前記第1の触感を生成するステップと、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域外であって前記ボタンの周囲を取り囲むように設定された領域内にタッチしたことが検知された場合には前記第2の触感を生成し、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの周囲を取り囲むように設定された領域の外にタッチしたことが検知された場合には触感を生成せず、
前記接眼検出手段により接眼が検出され、前記第1の検知手段によって前記操作として前記操作子が前記第1の表示手段に表示された前記ボタンの領域内にタッチしたことが検知された場合には前記第3の触感を生成するステップと、を有することを特徴とする触感制御方法。 Imaging means;
First display means;
Second display means as an electronic viewfinder disposed at a position different from the first display means;
Eyepiece detecting means for detecting an eyepiece with respect to the second display means;
First detection means for detecting an operation by an operator on an input surface provided corresponding to the first display means;
A first tactile sensation that imparts vibration to the operation element, a second tactile sensation different from the first tactile sensation that imparts vibration to the operation element, the first tactile sensation, and the second tactile sensation A tactile sensation generating means for generating a third tactile sensation having different tactile sensations and applying vibration to the operation element
A tactile sensation control method executed by an electronic device having
When an eyepiece is not detected by the eyepiece detection means, and the first detection means detects that the operation element touches outside the area of the button displayed on the first display means as the operation. Does not generate a touch,
The eyepiece detecting means detects that the eyepiece is not detected, and the first detecting means detects that the operation element has touched the area of the button displayed on the first display means as the operation. In some cases, generating the first tactile sensation;
An eyepiece is detected by the eyepiece detecting means, and the operation element is outside the area of the button displayed on the first display means as the operation by the first detecting means so as to surround the button. When it is detected that a touch has been made within the set area, the second tactile sensation is generated,
An eyepiece is detected by the eyepiece detection means, and the operation element touches outside the region set to surround the button displayed on the first display means as the operation by the first detection means. Does not generate a tactile sensation,
When the eyepiece is detected by the eyepiece detection unit, and the first detection unit detects that the operation element has touched the button area displayed on the first display unit as the operation. And generating the third tactile sensation .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014087722A JP6433144B2 (en) | 2014-04-21 | 2014-04-21 | Electronic device, tactile sensation control method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014087722A JP6433144B2 (en) | 2014-04-21 | 2014-04-21 | Electronic device, tactile sensation control method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015207175A JP2015207175A (en) | 2015-11-19 |
JP6433144B2 true JP6433144B2 (en) | 2018-12-05 |
Family
ID=54603923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014087722A Expired - Fee Related JP6433144B2 (en) | 2014-04-21 | 2014-04-21 | Electronic device, tactile sensation control method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6433144B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019091380A (en) * | 2017-11-17 | 2019-06-13 | 株式会社東海理化電機製作所 | Display control apparatus, input apparatus, and program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3730086B2 (en) * | 2000-06-02 | 2005-12-21 | シャープ株式会社 | Camera-integrated video recording / playback device |
JP2006268068A (en) * | 2005-03-22 | 2006-10-05 | Fujitsu Ten Ltd | Touch panel device |
JP4897596B2 (en) * | 2007-07-12 | 2012-03-14 | ソニー株式会社 | INPUT DEVICE, STORAGE MEDIUM, INFORMATION INPUT METHOD, AND ELECTRONIC DEVICE |
JP2013168093A (en) * | 2012-02-17 | 2013-08-29 | Nikon Corp | Image display device |
JP2013196465A (en) * | 2012-03-21 | 2013-09-30 | Kddi Corp | User interface device for applying tactile response in object selection, tactile response application method and program |
JP2014056337A (en) * | 2012-09-11 | 2014-03-27 | Tokai Rika Co Ltd | Tactile sense presentation device |
-
2014
- 2014-04-21 JP JP2014087722A patent/JP6433144B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015207175A (en) | 2015-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101749126B1 (en) | Image processing device, tactile sense control method, and recording medium | |
JP6381240B2 (en) | Electronic device, tactile sensation control method, and program | |
JP6300604B2 (en) | Touch control device, touch control method, and program | |
JP2015118605A (en) | Tactile control device, tactile control method, and program | |
JP6289100B2 (en) | Information processing apparatus, information processing method, and program | |
CN105814522B (en) | Device and method for displaying user interface of virtual input device based on motion recognition | |
JP6071372B2 (en) | Electronic device and control method of electronic device | |
US20150192998A1 (en) | Tactile sense control apparatus, tactile sense control method, and storage medium | |
US20150253852A1 (en) | Portable apparatus, control method and program | |
US9405370B2 (en) | Electronic device and control method thereof | |
KR20160096030A (en) | Electronic apparatus and control method of the same | |
JP2016009315A (en) | Tactile sense control device, tactile sense control method, and program | |
JP6433144B2 (en) | Electronic device, tactile sensation control method, and program | |
JP6061528B2 (en) | Operating device, control method and program thereof, and recording medium | |
CN104793736B (en) | Electronic installation and its control method | |
JP6530160B2 (en) | Electronics | |
JP5943743B2 (en) | Display control apparatus, control method thereof, and program | |
JP2020057122A (en) | Electronic apparatus | |
JP2018132831A (en) | Electronic device, electronic device control method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170412 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180123 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180801 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181009 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181106 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6433144 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |