JP2015138416A - 電子機器、その制御方法及びプログラム - Google Patents

電子機器、その制御方法及びプログラム Download PDF

Info

Publication number
JP2015138416A
JP2015138416A JP2014009877A JP2014009877A JP2015138416A JP 2015138416 A JP2015138416 A JP 2015138416A JP 2014009877 A JP2014009877 A JP 2014009877A JP 2014009877 A JP2014009877 A JP 2014009877A JP 2015138416 A JP2015138416 A JP 2015138416A
Authority
JP
Japan
Prior art keywords
tactile sensation
screen
speed
specific
electronic device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014009877A
Other languages
English (en)
Other versions
JP2015138416A5 (ja
Inventor
くる美 森
Kurumi Mori
くる美 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014009877A priority Critical patent/JP2015138416A/ja
Priority to CN201510026200.9A priority patent/CN104793736B/zh
Priority to US14/601,965 priority patent/US20150205356A1/en
Publication of JP2015138416A publication Critical patent/JP2015138416A/ja
Publication of JP2015138416A5 publication Critical patent/JP2015138416A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Abstract

【課題】画面の表示が高速で変化するときにも、余裕を持って触感を与えられるようにする。【解決手段】CPU101は、画面のスクロール時に、現在のスクロール速度Sが予め設定された速度以上である場合、現在のスクロール速度Sに比例する特定距離以内、ここではスクロール速度Sと係数nとの積によって算出される範囲内に検索ポイントがあるか否かを判定する。検索ポイントが存在する場合、フィードバック継続時間カウントをリセットし、触感フィードバックを実行する処理を行う。このようにスクロール速度が遅い場合よりも速い場合の方が、検索ポイントの有無を判定する範囲を大きく設定して触感フィードバックを実行するようにしたので、余裕を持って触感を与えることができ、検索性を向上させることができる。【選択図】図1

Description

本発明は、表示部を備えた電子機器、その制御方法及びプログラムに関する。
近年、表示部にタッチパネルを備え、直感的な操作を可能とした電子機器が登場している。それらの電子機器では、画面上のボタンやフォルダ等にタッチすることで、様々なファンクションを呼び出すことが可能となっている。
一方で、携帯することを前提とした機器においては、機器本体のダウンサイジングという要求に応じて、機器本体に付属する表示部も小さくなってきている。こういった画面上で、例えば大量のデータリストをスクロールさせながら所望のデータを検索する場合、現在位置やデータの区切り等の表示が小さく、かつ高速に切り替わるために検索しにくくなるという問題があった。
タッチパネルに関する技術として、例えば特許文献1には、タッチ位置検出部がタッチパネル面上のタッチ位置を検出し、振動制御部が該タッチ位置に応じた振動周波数あるいは振動間隔あるいは振動強度で振動素子を振動させてタッチパネルを振動するようにしたものがある。
このようにタッチパネルへの接触に対して振動やその他の触感をユーザに与える技術は、触感フィードバックと呼ばれている。この技術を用いれば、例えばタッチパネルにおいて特定位置に表示されるコンテンツに触ることで、触感をユーザに与えることが実現できる。
特開2006−79238号公報
しかしながら、例えば高速のスクロールを実施している場合、コンテンツの画面通過時間が短いために、触感フィードバック時間が一瞬であり、触感フィードバックに気づいた時には所望のコンテンツが既に通過してしまっているようなこともあり、利便性に欠ける。
本発明は上記のような点に鑑みてなされたものであり、画面の表示が高速で変化するときにも、余裕を持って触感を与えられるようにすることを目的とする。
本発明の電子機器は、表示部を備えた電子機器であって、触感を発生する対象となる表示コンテンツを特定する特定手段と、前記表示部の画面のスクロール操作時に、前記特定手段で特定された前記表示コンテンツと前記画面の特定の位置との距離が特定距離以内になると、触感を発生させる発生部と、前記スクロール操作におけるスクロール速度が遅い場合よりも速い場合の方が前記特定距離を大きく設定する制御手段とを有することを特徴とする。
本発明によれば、画面の表示が高速で変化するときにも、余裕を持って触感を与えられるようにすることができる。
実施形態に係る電子機器の構成例を示すブロック図である。 ディスプレイの表示画面例を示す図である。 画面のスクロール指示が入力された状態を模式的に示す図である。 画面がスクロールしている場合に仮想的に想定されるサムネイルの表示順を示す図である。 第1の実施形態において、画面のスクロール時に触感フィードバックを実行する際の触感フィードバック処理を示すフローチャートである。 第2の実施形態における触感フィードバック処理実行の詳細を示すフローチャートである。 動画データの例を示す図である。 第3の実施形態において動画再生時に、触感フィードバックを実行する際の触感フィードバック処理を示すフローチャートである。
以下、添付図面を参照して、本発明の好適な実施形態について説明する。
<第1の実施形態>
図1は、本発明を適用した実施形態に係る電子機器100の構成を示す図である。電子機器100は、携帯電話等により構成することができる。図1に示すように、内部バス150に対して、CPU101、メモリ102、不揮発性メモリ103、画像処理部104、ディスプレイ105、操作部106、記録媒体I/F107、外部I/F109及び通信I/F110が接続されている。また、内部バス150に対して、撮像部112、触感発生部122及び触感発生部123が接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができる。
メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリ等)を有している。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、電子機器100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラム等が格納されている。不揮発性メモリ103は、例えばハードディスク(HD)やROM等を有している。
画像処理部104は、CPU101の制御に基づいて、画像データに対して各種画像処理を施す。画像処理が施される画像データとしては、不揮発性メモリ103や記録媒体108に格納された画像データ、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像データ、撮像部112で撮像された画像データ等がある。
画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理等が含まれる。画像処理部104は、例えば、特定の画像処理を施すための専用の回路ブロックである。また、画像処理の種別によっては、画像処理部104ではなく、CPU101がプログラムに従って画像処理を実行することもできる。
ディスプレイ105は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面等を表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための映像信号を生成し、これをディスプレイ105に出力するように、電子機器100の各部を制御する。そして、ディスプレイ105は、映像信号に基づいて映像を表示する。
なお、他の例としては、電子機器100は、ディスプレイ105を有さず、ディスプレイ105に表示させるための映像信号を出力するためのインターフェースを有することとしてもよい。この場合には、電子機器100は、外付けのモニタ(テレビ等)に対し画像等を表示するものとする。
操作部106は、キーボード等の文字情報入力デバイスや、マウスやタッチパネル120等ポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッド等、ユーザ操作を受け付けるための入力デバイスである。タッチパネル120は、ディスプレイ105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報を出力する入力デバイスである。
記憶媒体I/F107には、メモリーカードやCD、DVD等の記録媒体108が装着可能である。記憶媒体I/F107は、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出しや、装着された記録媒体108へのデータの書き込みを行う。
外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111等と通信(電話通信を含む)して、ファイルやコマンド等の各種データの送受信を行うためのインターフェースである。
撮像部112は、CCDセンサやCMOSセンサ等の撮像素子、ズームレンズ、フォーカスレンズ、シャッター、絞り、測距部、A/D変換器等を有するカメラユニットである。撮像部112は、静止画及び動画を撮像することができる。撮像部112により撮像された画像の画像データは、画像処理部104に送信され、画像処理部104において、各種処理を施された後、静止画ファイル又は動画ファイルとして記録媒体108に記録される。
CPU101は、タッチパネル120から出力されたタッチ位置の座標情報を、内部バス150を介して受信する。そして、CPU101は、座標情報に基づいて、以下の操作や状態を検出する。
・タッチパネル120を指やペンで触れる操作(以下、タッチダウンと称する)。
・タッチパネル120を指やペンで触れている状態(以下、タッチオンと称する)。
・タッチパネル120を指やペンで触れたまま移動する操作(以下、ムーブと称する)。
・タッチパネル120へ触れていた指やペンを離す操作(以下、タッチアップと称する)。
・タッチパネル120に何も触れていない状態(以下、タッチオフと称する)。
CPU101はさらに、ムーブを検出した場合には、タッチ位置の座標変化に基づいて、指やペンの移動方向を判定する。具体的には、CPU101は、タッチパネル120上における移動方向の垂直成分及び水平成分それぞれを判定する。
CPU101はまた、ストローク、フリック及びドラッグの各操作を検出する。CPU101は、タッチダウンから一定のムーブを経てタッチアップが行われた場合に、ストロークを検出する。CPU101は、所定距離以上且つ所定速度以上のムーブが検出され、続けてタッチアップが検出された場合に、フリックを検出する。CPU101はまた、所定距離以上且つ所定速度未満のムーブが検出された場合に、ドラッグを検出する。
なお、フリックは、タッチパネル120上に指を触れたまま、ある程度の距離だけ素早く動かし、そのまま指をタッチパネル120から離す操作である。すなわち、フリックは、タッチパネル120上を指ではじくように素早くなぞる操作である。
タッチパネル120は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
荷重検出部121は、接着等によりタッチパネル120と一体に設けられている。荷重検出部121は、歪みゲージセンサであり、タッチ操作の押圧力に応じてタッチパネル120が微少量撓む(歪む)ことを利用して、タッチパネル120に加わる荷重(押圧力)を検出する。他の例としては、荷重検出部121は、ディスプレイ105と一体に設けられてもよい。この場合、荷重検出部121は、ディスプレイ105を介して、タッチパネル120に加わる荷重を検出する。
触感発生部122は、タッチパネル120を操作する指やペン等の操作子に与える触感を発生させる。触感発生部122は、接着等によりタッチパネル120と一体に設けられている。触感発生部122は、圧電(ピエゾ)素子、より具体的には圧電振動子であり、CPU101の制御の下、任意の振幅及び周波数で振動する。これにより、タッチパネル120が湾曲振動し、タッチパネル120の振動が操作子に触感として伝わる。すなわち、触感発生部122は、自身が振動することにより、操作子に触感を与えるものである。
他の例としては、触感発生部122は、ディスプレイ105と一体に設けられていてもよい。この場合、触感発生部122は、ディスプレイ105を介して、タッチパネル120を湾曲振動させる。
なお、CPU101は、触感発生部122の振幅及び周波数を変更し、様々なパターンで触感発生部122を振動させることにより、様々なパターンの触感を発生させることができる。
また、CPU101は、タッチパネル120おいて検出されたタッチ位置と、荷重検出部121により検出された押圧力に基づいて、触感を制御することができる。例えば、操作子のタッチ操作に対応し、CPU101が、ディスプレイ105に表示されたボタンアイコンに対応するタッチ位置を検出し、荷重検出部121が、所定値以上の押圧力を検出したとする。この場合、CPU101は、1周期前後の振動を発生させる。これにより、ユーザは、あたかも機械的なボタンを押しこんだ際のクリック感のような触感を知覚することができる。
さらにCPU101は、ボタンアイコンの位置へのタッチを検出している状態で所定値以上の押圧力を検出した場合にのみ、ボタンアイコンの機能を実行するものとする。すなわち、CPU101は、単にボタンアイコンに触れた場合のように弱い押圧力を検知した場合には、ボタンアイコンの機能を実行しない。これにより、ユーザは、機械的なボタンを押しこんだ際と同じような感覚で操作を行うことができる。
なお、荷重検出部121は、歪みゲージセンサに限定されるものではない。他の例としては、荷重検出部121は、圧電素子を有してもよい。この場合、荷重検出部121は、押圧力に応じて圧電素子から出力される電圧に基づいて、荷重を検出する。さらに、この場合の荷重検出部121としての圧力素子は、触感発生部122としての圧力素子と共通であってもよい。
また、触感発生部122は、圧力素子による振動を発生させるものに限定されるものではない。他の例としては、触感発生部122は、電気的な触感を発生させるものであってもよい。例えば、触感発生部122は、導電層パネルと絶縁体パネルを有する。ここで、導電層パネルと絶縁体パネルは、タッチパネル120と同様に、ディスプレイ105に重ね合わされ、平面的に設けられている。そして、ユーザが絶縁体パネルに触れると、導電層パネルに正電荷がチャージされる。すなわち、触感発生部122は、導電層パネルに正電荷をチャージすることにより、電気刺激としての触感を発生させることができる。また、触感発生部122は、ユーザに、クーロン力により皮膚が引っ張られるような感覚(触感)を与えるものであってもよい。
また他の例としては、触感発生部122は、正電荷をチャージするか否かを、パネル上の位置毎に選択可能な導電層パネルを有してもよい。そして、CPU101は、正電荷のチャージ位置を制御する。これにより、触感発生部122は、ユーザに「ゴツゴツ感」、「ザラザラ感」、「さらさら感」等、様々な触感を与えることができる。
触感発生部123は、電子機器100の全体を振動させることにより、触感を発生させる。触感発生部123は、例えば偏心モーター等を有し、公知のバイブレーション機能等を実現する。これにより、電子機器100は、触感発生部123が発生する振動により、電子機器100を持つユーザの手等に触感を与えることができる。
図2は、表示部であるディスプレイ105の表示画面例である。画面上には、記録媒体に記録された各画像データから生成された複数のサムネイルがインデックス表示されている。各サムネイルは、記録された順に並んでいる。
図2に示す状態では画面は静止しているが、図3に示すように、ユーザによってフリック等の画面のスクロール指示が入力されると、画面のスクロールが開始される。
図4は、画面がスクロールしている場合に仮想的に想定されるサムネイルの表示順を示すものである。画面先頭位置にあるサムネイルから7列目のサムネイルより前(画面のスクロール方向の上流)のサムネイルグループは、別の日付に記録されたデータとなる(日付区切り401を参照)。
電子機器100は、この日付区切り等のデータ検索に有用な検索ポイントをユーザに通知するときに、触感発生部122によって触感を与える触感フィードバック制御を実行する。
図5は、画面のスクロール時に、検索ポイントに対して触感フィードバックを実行する際の触感フィードバック処理を示すフローチャートである。図5に示す処理は、電子機器100のCPU101がプログラムを実行することにより実現される。
検索ポイントへの触感フィードバック処理を開始すると、CPU101は、現在の画面のスクロール速度Sを検出する(ステップS501)。そして、現在のスクロール速度Sが予め設定された速度S1より低いか否かを判定し(ステップS502)、速度S1より低い場合、ステップS507に進み、速度S1以上である場合、ステップS503に進む。
ステップS507で、CPU101は、触感フィードバックを継続するためのフィードバック継続時間カウントをリセットし、処理を終了する。フィードバック継続時間カウントは、速いスクロール速度によって目当てのサムネイルが通り過ぎても触感フィードバックを継続し、ユーザへの通知時間を増やす目的で設定する。触感フィードバックに余韻を残すような効果を与えることができる。
ステップS503で、CPU101は、現在のスクロール速度Sが予め設定された速度S2(>S1)より低いか否かを判定し、速度S2より低い場合、ステップS504に進み、速度S2以上である場合、ステップS505に進む。
ステップS504では、画面内に、触感を発生する対象となる表示コンテンツである検索ポイントがあるか否かを判定する。本実施形態の場合、検索ポイントとは、日付区切り401によって区切られる次のサムネイルグループ内の最初のサムネイルを指す。図4の例では、画面上左端のサムネイル402(画面に表示されている項目)から右に数えて8番目のサムネイル403がそれに該当する。画面内に検索ポイントがある場合、フィードバック継続時間カウントをリセットし(ステップS510)、触感フィードバックを実行する処理を行い(ステップS508)、フィードバック継続時間カウントを減算して(ステップS509)、処理を終了する。画面内に検索ポイントがない場合、処理を終了する。
ステップS505では、CPU101は、現在のスクロール速度Sに比例する特定距離以内、ここではスクロール速度Sと係数nとの積によって算出される範囲内に検索ポイントがあるか否かを判定する。検索ポイントが存在する場合、ステップS510に進み、存在しない場合、ステップS506に進む。
ステップS506では、フィードバック継続時間カウントが終了しているか否かを判定する。フィードバック継続時間カウントが終了していない場合、ステップS508に進んで触感フィードバック処理実行を続行し、終了している場合、ステップS507に進む。
以上のように、スクロール速度が遅い場合よりも速い場合の方が、検索ポイントの有無を判定する範囲を大きく設定して触感フィードバックを実行するようにしたので、余裕を持って触感を与えることができ、検索性を向上させることができる。
また、検索ポイントの有無を判定する範囲に関わらず、触感の発生時間を一定時間(フィードバック継続時間カウント)としたので、触感の呈示時間が短くなって知覚しにくくなる状況を避けることができる。
また、スクロール速度Sが予め設定された速度S1より低いときには、触感フィードバックしないようにした。ユーザが十分画面上を視認可能であるようなスクロール速度の場合、ユーザが検索以外の操作を行う可能性も高くなる。そこで、表示されているサムネイルと検索ポイントの位置関係による触感フィードバックよりも他の操作による触感を優先させ、よりユーザへのフィードバック内容を適正にすることを可能にしている。
<第2の実施形態>
次に、第2の実施形態について説明する。なお、第2の実施形態でも電子機器100の構成は図1に示したとおりであり、その説明は省略する。
画面の表示内容は、第1の実施形態と同様である。また、触感フィードバック処理についてのフローチャートも第1の実施形態と同様である。第1の実施形態と異なるのは、図5におけるフィードバック処理実行の詳細である。
図6は、触感フィードバック処理実行の詳細を示すフローチャートである。
CPU101は、画面内に検索ポイントがあるか否かを判定する(ステップS601)。
ステップS601において画面内に検索ポイントがある場合、CPU101は、画面に対する操作部材の接触があるか否かを判定する(ステップS602)。操作部材の接触がある場合、ステップS603に進み、触感フィードバックをF1のパターンで行う。このときに触感フィードバックを行うのは、触感発生部122であり、画面タッチを行っている指等の操作部材にダイレクトに触感を与える。一方、接触部材の接触がない場合、ステップS604に進み、触感フィードバックをF2のパターンで行う。このときに触感フィードバックを行うのは、触感発生部123であり、躯体全体に対して触感を与えることで、画面タッチがない状態でもユーザに通知可能である。
ステップS601において画面内に検索ポイントがない場合、検索ポイントが画面外であってスクロール方向の上流にあるか否かを判定する(ステップS605)。検索ポイントが画面外であってスクロール方向の上流にある場合(すなわち、検索ポイントがまだ画面に現れていない場合)、ステップS602に進む。検索ポイントが画面外であってスクロールの上流にない場合(すなわち、検索ポイントが画面を通過してしまった場合)、ステップS606に進む。ステップS606では、画面に対する操作部材の接触があるか否かを判定する。操作部材の接触がある場合、ステップS607に進み、触感フィードバックをF3のパターンで行う。このときに触感フィードバックを行うのは、触感発生部122であり、画面タッチを行っている指等の操作部材にダイレクトに触感を与える。ただし、F3のパターンは、F1のパターンとは異なるものとする。一方、接触部材の接触がない場合、ステップS608に進み、触感フィードバックをF4のパターンで行う。このときに触感フィードバックを行うのは、触感発生部123であり、F2のパターンとは異なるが、躯体全体に対して触感を与えることで、画面タッチがない状態でもユーザに通知可能である。ただし、F4のパターンは、F2のパターンとは異なるものとする。
以上のように、触感の種類を変更することによって、ユーザは、検索ポイントがまだ画面に現れていないのか、通過したのか等の位置関係を把握することができる。そのときに、さらに画面へのタッチ状況に応じて触感の種類を変更する、具体的には画面にタッチしているときは画面タッチを行っている指等の操作部材にダイレクトに触感を与え、画面にタッチしていないときは躯体全体に対して触感を与えるようにしたので、より適切な触感フィードバックが可能となっている。
なお、触感フィードバックのパターンの詳細は特に限定されるものではない。例えば強度を変更する、タッチを行っている期間中に触感を与える時間間隔を変更する、触感を与える位置を変更する(接触位置を中央として、触感を与える領域を狭くしたり、広くしたりする等)、触感を与える回数や周期を変更する、等の呈示方法が存在し、そのいずれかの変更によってパターンを作ることが可能である。
<第3の実施形態>
次に、第3の実施形態について説明する。なお、第3の実施形態でも電子機器100の構成は図1に示したとおりであり、その説明は省略する。
第3の実施形態では、再生速度を可変とした場合の動画再生時におけるユーザ操作に応じた触感フィードバックの例を示す。
ここでは、動画の再生速度を操作しながら、予め動画中に設定されたブックマークを検索するものとする。このブックマークは、後に所望のシーンを素早く探すための目印となり、スキップボタンなどを操作することにより、再生位置を、ブックマークが付与されている前、または後ろのシーンへ素早く移動ことが出来る。このブックマークは、しおりとかチャプターとも呼ばれる場合が有る。図7は、動画データの概要を示したものである。動画スタートポイントから2か所に、触感を発生する対象となる表示コンテンツであるブックマークが設定されている。この動画を再生している間、ユーザは操作部106の操作によって再生速度をコントロールすることが可能であり、再生して表示されているシーンがブックマークの位置に近づいたことをユーザに知らせるため、触感による情報提供が可能となっている。
図8は、動作再生時に、ブックマークに対して触感フィードバックを実行する際の触感フィードバック処理を示すフローチャートである。図8に示す処理は、電子機器100のCPU101がプログラムを実行することにより実現される。
ブックマークへの触感フィードバック処理を開始すると、CPU101は、現在の再生速度Sを検出し(ステップS801)、ステップS802に進む。ステップS802では一時停止状態であるか否かを判定し、一時停止状態であれば処理を終了し、一時停止状態でなければステップS803に進む。なお、ここでは一時停止状態(再生速度S=0)であるか否かを判定するようにしたが、それ以外の速度を判定基準として設定してもかまわない。
ステップS803では、CPU101は、現在再生しているシーンから後に再生されるシーンのうち、現在の再生速度Sに比例する特定距離以内(ここでは再生速度Sと係数nとの積nS秒分の通常再生時間の範囲内)にブックマークが存在するか否かを判定する。ブックマークが存在する場合、これからブックマークのシーンが再生されることを予告するために触感フィードバックを実行する処理を行い(ステップS804)、処理を終了する。ブックマークが存在しない場合、処理を終了する。
なお、上位の説明では、再生中のシーンと特定のシーンとの間の時間的な隔たりを、特定距離と定義していたが、時間的な隔たりの代わりに、フレーム数やシーン数などを特定距離と定義しても良い。
以上のように、再生速度が遅い場合よりも速い場合の方が、ブックマークの有無を判定する範囲を大きく設定して触感フィードバックを実行するようにしたので、余裕を持って触感を与えることができ、検索性を向上させることができる。
以上、本発明をその好適な実施形態に基づいて詳述したが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。また、上述した実施形態の一部を適宜組み合わせてもよい。
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
100:電子機器、101:CPU、102:メモリ、103:不揮発性メモリ、104:画像処理部、105:ディスプレイ、106:操作部、107:記録媒体I/F、108:記録媒体、109:外部I/F、110:通信I/F、111:インターネット、112:撮像部、120:タッチパネル、121:荷重検出部、122:触感発生部、123:触感発生部

Claims (10)

  1. 表示部を備えた電子機器であって、
    触感を発生する対象となる表示コンテンツを特定する特定手段と、
    前記表示部の画面のスクロール操作時に、前記特定手段で特定された前記表示コンテンツと前記画面の特定の位置との距離が特定距離以内になると、触感を発生させる発生部と、
    前記スクロール操作におけるスクロール速度が遅い場合よりも速い場合の方が前記特定距離を大きく設定する制御手段とを有することを特徴とする電子機器。
  2. 前記制御手段は、触感の発生時間を前記特定距離に関わらず一定時間とすることを特徴とする請求項1に記載の電子機器。
  3. 前記制御手段は、前記特定手段で特定された前記表示コンテンツと前記画面の特定の位置との位置関係に応じて、発生させる触感の種類を変更することを特徴とする請求項1又は2に記載の電子機器。
  4. 前記制御手段は、前記スクロール速度が予め設定された速度より低い場合、触感を発生させないことを特徴とする請求項1乃至3のいずれか1項に記載の電子機器。
  5. 前記制御手段は、画面に対する操作部材の接触があるか否かに応じて、発生させる触感の種類を変更することを特徴とする請求項1乃至4のいずれか1項に記載の電子機器。
  6. 再生速度を可変として動画を再生して表示部に表示する電子機器であって、
    触感を発生する対象となる、動画中のシーンを特定する特定手段と、
    動画再生時に、前記表示部の画面に表示されている前記動画のシーンと、前記特定手段で特定されたシーンとの表示順における距離が特定距離以内になると、触感を発生させる発生部と、
    前記再生速度が遅い場合よりも速い場合の方が前記特定距離を大きく設定する制御手段とを有することを特徴とする電子機器。
  7. 表示部を備えた電子機器の制御方法であって、
    触感を発生する対象となる表示コンテンツを特定する特定ステップと、
    前記表示部の画面のスクロール操作時に、前記特定ステップで特定された前記表示コンテンツと前記画面の特定の位置との距離が特定距離以内になると、触感を発生させるステップとを有し、
    前記スクロール操作におけるスクロール速度が遅い場合よりも速い場合の方が前記特定距離を大きく設定することを特徴とする電子機器の制御方法。
  8. 再生速度を可変として動画を再生して表示部に表示する電子機器の制御方法であって、
    触感を発生する対象となる、動画中のシーンを特定する特定ステップと、
    動画再生時に、前記表示部の画面に表示されている前記動画のシーンと、前記特定ステップで特定されたシーンとの表示順における距離が特定距離以内になると、触感を発生させるステップとを有し、
    前記再生速度が遅い場合よりも速い場合の方が前記特定距離を大きく設定することを特徴とする電子機器の制御方法。
  9. 表示部を備えた電子機器を制御するためのプログラムであって、
    触感を発生する対象となる表示コンテンツを特定する処理と、
    前記表示部の画面のスクロール操作時に、前記特定された前記表示コンテンツと前記画面の特定の位置との距離が特定距離以内になると、触感を発生させる処理と、
    前記スクロール操作におけるスクロール速度が遅い場合よりも速い場合の方が前記特定距離を大きく設定する処理とをコンピュータに実行させるためのプログラム。
  10. 再生速度を可変として動画を再生して表示部に表示する電子機器を制御するためのプログラムであって、
    触感を発生する対象となる、動画中のシーンを特定する処理と、
    動画再生時に、前記表示部の画面に表示されている前記動画のシーンと、前記シーンとの表示順における距離が特定距離以内になると、触感を発生させる処理と、
    前記再生速度が遅い場合よりも速い場合の方が前記特定距離を大きく設定する処理とをコンピュータに実行させるためのプログラム。
JP2014009877A 2014-01-22 2014-01-22 電子機器、その制御方法及びプログラム Pending JP2015138416A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014009877A JP2015138416A (ja) 2014-01-22 2014-01-22 電子機器、その制御方法及びプログラム
CN201510026200.9A CN104793736B (zh) 2014-01-22 2015-01-20 电子装置及其控制方法
US14/601,965 US20150205356A1 (en) 2014-01-22 2015-01-21 Electronic apparatus, control method therefor and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014009877A JP2015138416A (ja) 2014-01-22 2014-01-22 電子機器、その制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2015138416A true JP2015138416A (ja) 2015-07-30
JP2015138416A5 JP2015138416A5 (ja) 2017-02-23

Family

ID=53544744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014009877A Pending JP2015138416A (ja) 2014-01-22 2014-01-22 電子機器、その制御方法及びプログラム

Country Status (3)

Country Link
US (1) US20150205356A1 (ja)
JP (1) JP2015138416A (ja)
CN (1) CN104793736B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10194078B2 (en) 2017-06-09 2019-01-29 Immersion Corporation Haptic enabled device with multi-image capturing abilities
CN113849083B (zh) * 2021-09-24 2024-03-29 珠海格力电器股份有限公司 一种滤网复位显示方法、系统及滤网复位显示设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012503800A (ja) * 2008-09-24 2012-02-09 イマージョン コーポレイション 複数作動ハンドヘルド装置
WO2013018310A1 (ja) * 2011-07-29 2013-02-07 パナソニック株式会社 電子機器
JP2013239177A (ja) * 2012-05-16 2013-11-28 Immersion Corp 触覚対応メタデータのためのシステム及び方法

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6429846B2 (en) * 1998-06-23 2002-08-06 Immersion Corporation Haptic feedback for touchpads and other touch controls
US8684839B2 (en) * 2004-06-18 2014-04-01 Igt Control of wager-based game using gesture recognition
US8531392B2 (en) * 2004-08-04 2013-09-10 Interlink Electronics, Inc. Multifunctional scroll sensor
KR100873679B1 (ko) * 2007-09-04 2008-12-12 엘지전자 주식회사 휴대단말기의 스크롤링 방법
CN102749997B (zh) * 2007-09-18 2016-06-22 微软技术许可有限责任公司 移动终端和控制该移动终端的操作的方法
KR101549011B1 (ko) * 2009-04-21 2015-09-01 엘지전자 주식회사 이동 단말기 및 이것의 방송 정보 디스플레이 방법
KR101629645B1 (ko) * 2009-09-18 2016-06-21 엘지전자 주식회사 휴대 단말기 및 그 동작방법
US8274592B2 (en) * 2009-12-22 2012-09-25 Eastman Kodak Company Variable rate browsing of an image collection
JP5711479B2 (ja) * 2010-08-17 2015-04-30 キヤノン株式会社 表示制御装置及びその制御方法
KR101762611B1 (ko) * 2010-12-10 2017-07-28 삼성전자 주식회사 터치스크린을 구비한 휴대 단말기의 화면 표시 방법 및 장치
JP2013157061A (ja) * 2012-01-31 2013-08-15 Sony Corp 情報処理装置、情報処理方法、及びプログラム
US20130318437A1 (en) * 2012-05-22 2013-11-28 Samsung Electronics Co., Ltd. Method for providing ui and portable apparatus applying the same
US9223403B2 (en) * 2012-12-19 2015-12-29 Panasonic Intellectual Property Management Co., Ltd. Tactile input and output device
JP6157215B2 (ja) * 2013-05-23 2017-07-05 キヤノン株式会社 表示制御装置及びその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012503800A (ja) * 2008-09-24 2012-02-09 イマージョン コーポレイション 複数作動ハンドヘルド装置
WO2013018310A1 (ja) * 2011-07-29 2013-02-07 パナソニック株式会社 電子機器
JP2013239177A (ja) * 2012-05-16 2013-11-28 Immersion Corp 触覚対応メタデータのためのシステム及び方法

Also Published As

Publication number Publication date
CN104793736B (zh) 2017-12-01
CN104793736A (zh) 2015-07-22
US20150205356A1 (en) 2015-07-23

Similar Documents

Publication Publication Date Title
JP6300604B2 (ja) 触感制御装置、触感制御方法及びプログラム
KR101749126B1 (ko) 화상 처리장치, 촉감 제어방법 및 기록매체
KR102245736B1 (ko) 미디어 콘텐츠 내비게이션을 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
JP6381240B2 (ja) 電子機器、触感制御方法及びプログラム
JP6071372B2 (ja) 電子機器及び電子機器の制御方法
JP2015118605A (ja) 触感制御装置、制御方法及びプログラム
JP6289100B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9405370B2 (en) Electronic device and control method thereof
US20150192998A1 (en) Tactile sense control apparatus, tactile sense control method, and storage medium
JP6758922B2 (ja) 電子機器及びその制御方法
JP2015138416A (ja) 電子機器、その制御方法及びプログラム
JP5911321B2 (ja) 表示制御装置および表示制御装置の制御方法
JP2016009315A (ja) 触感制御装置、触感制御方法及びプログラム
JP6061528B2 (ja) 操作装置、その制御方法及びプログラム並びに記録媒体
JP6907368B2 (ja) 電子機器及びその制御方法
JP6433144B2 (ja) 電子機器、触感制御方法及びプログラム
JP2018132831A (ja) 電子機器、電子機器の制御方法及びプログラム
JP2015225483A (ja) 表示制御装置
JP2011138402A (ja) 操作入力装置、表示装置、撮影装置及び動画再生装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170117

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171010

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180417