JP6289100B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP6289100B2 JP6289100B2 JP2014000445A JP2014000445A JP6289100B2 JP 6289100 B2 JP6289100 B2 JP 6289100B2 JP 2014000445 A JP2014000445 A JP 2014000445A JP 2014000445 A JP2014000445 A JP 2014000445A JP 6289100 B2 JP6289100 B2 JP 6289100B2
- Authority
- JP
- Japan
- Prior art keywords
- tactile sensation
- area
- tactile
- setting
- color
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/016—Input arrangements with force or tactile feedback as computer generated output to the user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/014—Force feedback applied to GUI
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04105—Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
Description
図1は、情報処理装置としての電子機器100を示す図である。電子機器100は、携帯電話等により構成することができる。図1に示すように、内部バス150に対して、CPU101、メモリ102、不揮発性メモリ103、画像処理部104、ディスプレイ105、操作部106、記録媒体I/F107、外部I/F109及び通信I/F110が接続されている。また、内部バス150に対して、撮像部112、荷重検出部121、触感生成部122及び触感生成部123が接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができる。
メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリ等)を有している。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、電子機器100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラム等が格納されている。不揮発性メモリ103は、例えばハードディスク(HD)やROM等を有している。
画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理等が含まれる。画像処理部104は、例えば、特定の画像処理を施すための専用の回路ブロックである。また、画像処理の種別によっては、画像処理部104ではなく、CPU101がプログラムに従って画像処理を実行することもできる。
なお、他の例としては、電子機器100は、ディスプレイ105を有さず、ディスプレイ105に表示させるための映像信号を出力するためのインターフェースを有することとしてもよい。この場合には、電子機器100は、外付けのモニタ(テレビ等)に対し画像等を表示するものとする。
記憶媒体I/F107には、メモリーカードやCD、DVD等の記録媒体108が装着可能である。記憶媒体I/F107は、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出しや、装着された記録媒体108へのデータの書き込みを行う。
撮像部112は、CCDセンサやCMOSセンサ等の撮像素子、ズームレンズ、フォーカスレンズ、シャッター、絞り、測距部、A/D変換器等を有するカメラユニットである。撮像部112は、静止画及び動画を撮像することができる。撮像部112により撮像された画像の画像データは、画像処理部104に送信され、画像処理部104において、各種処理を施された後、静止画ファイル又は動画ファイルとして記録媒体108に記録される。
・タッチパネル120を指やペンで触れる操作(以下、タッチダウンと称する)。
・タッチパネル120を指やペンで触れている状態(以下、タッチオンと称する)。
・タッチパネル120を指やペンで触れたまま移動する操作(以下、ムーブと称する)。
・タッチパネル120へ触れていた指やペンを離す操作(以下、タッチアップと称する)。
・タッチパネル120に何も触れていない状態(以下、タッチオフと称する)。
CPU101はさらに、ムーブを検出した場合には、タッチ位置の座標変化に基づいて、指やペンの移動方向を判定する。具体的には、CPU101は、タッチパネル120上における移動方向の垂直成分及び水平成分それぞれを判定する。
なお、フリックは、タッチパネル120上に指を触れたまま、ある程度の距離だけ素早く動かし、そのまま指をタッチパネル120から離す操作である。すなわち、フリックは、タッチパネル120上を指ではじくように素早くなぞる操作である。
荷重検出部121は、接着等によりタッチパネル120と一体に設けられている。荷重検出部121は、歪みゲージセンサであり、タッチ操作の押圧力に応じてタッチパネル120が微少量撓む(歪む)ことを利用して、タッチパネル120に加わる荷重(押圧力)を検出する。他の例としては、荷重検出部121は、ディスプレイ105と一体に設けられてもよい。この場合、荷重検出部121は、ディスプレイ105を介して、タッチパネル120に加わる荷重を検出する。
他の例としては、触感生成部122は、ディスプレイ105と一体に設けられていてもよい。この場合、触感生成部122は、ディスプレイ105を介して、タッチパネル120を湾曲振動させる。
さらにCPU101は、ボタンアイコンの位置へのタッチを検出している状態で所定値以上の押圧力を検出した場合にのみ、ボタンアイコンの機能を実行するものとする。すなわち、CPU101は、単にボタンアイコンに触れた場合のように弱い押圧力を検知した場合には、ボタンアイコンの機能を実行しない。これにより、ユーザは、機械的なボタンを押しこんだ際と同じような感覚で操作を行うことができる。
なお、荷重検出部121は、歪みゲージセンサに限定されるものではない。他の例としては、荷重検出部121は、圧電素子を有してもよい。この場合、荷重検出部121は、押圧力に応じて圧電素子から出力される電圧に基づいて、荷重を検出する。さらに、この場合の荷重検出部121としての圧力素子は、触感生成部122としての圧力素子と共通であってもよい。
また他の例としては、触感生成部122は、正電荷をチャージするか否かを、パネル上の位置毎に選択可能な導電層パネルを有してもよい。そして、CPU101は、正電荷のチャージ位置を制御する。これにより、触感生成部122は、ユーザに「ゴツゴツ感」、「ザラザラ感」、「さらさら感」等、様々な触感を与えることができる。
触感設定モードにおいては、ディスプレイ105には、触感パレットが表示される。触感パレットは、ユーザが、触感の種別及び強度を選択するためのユーザインタフェースであり、複数の触感ボタンを含んでいる。ここで、複数の触感ボタンそれぞれは、種別及び強度のうち少なくとも一方が異なる複数の触感に対応している。触感パレットはまた、消しゴムボタンを含んでいる。消しゴムボタンは、既に設定された触感を削除する際に利用される。
触感ボタン名は、触感ボタンの名称である。触感情報は、触感表示色と、触感種別と、触感強度とを含んでいる。ここで、触感種別は、「ゴツゴツ感」、「ザラザラ感」等触感の種別を示す情報である。触感強度は、触感の強さを示す情報である。触感強度が強い程、操作子に対し、より強い触感を与えることができる。触感表示色は、画像中の領域に触感情報に示される触感が設定された場合に、設定された領域を描画する色である。詳細については後述するが、触感が設定された場合には、設定された領域は、触感表示色で表示される。これにより、ユーザは、いずれの領域に触感が設定されたのかを視覚的に把握することができる。
図2に示すパレットテーブル200においては、触感ボタン1には、触感表示色(255,128,0)、触感種別「触感A」、触感強度「3」の触感情報が対応付けられている。触感ボタン3には、触感表示色(0,64,64)、触感種別「触感C」、触感強度「2」の触感情報が対応付けられている。
S300において、CPU101は、ディスプレイ105に処理対象の画像を表示し(表示処理)。次に、S301において、CPU101は、タッチパネル120へのタッチダウンの有無を確認する。CPU101は、タッチダウンが検出された場合には(S301でYes)、処理をS302へ進める。CPU101は、タッチダウンが検出されない場合には(S301でNo)、処理を終了する。ここで、S301の処理は、ダッチダウン(タッチ入力)を検出する検出処理の一例である。
S303において、CPU101は、タッチ位置に対応する触感ボタンの選択を受け付け、タッチ位置に対応する触感ボタンの操作状態を触感ボタン選択中に設定する。ここで、前述の通り、触感ボタンは、パレットテーブル200において、触感情報に対応付けられている。すなわち、S303において、触感ボタンの選択を受け付ける処理は、触感種別の指定を受け付ける種別受付処理及び触感強度の指定を受け付ける強度受付処理の一例である。
次に、S305において、CPU101は、パレットテーブル200を参照し、選択中の触感ボタンに対応する触感情報を特定する。そして、CPU101は、特定した触感情報に示される種別及び強度の触感の生成を触感生成部122に指示する。これに対し、触感生成部122は、CPU101からの指示に従い、触感を生成する。
なお、他の例としては、S305において、CPU101は、触感の生成を触感生成部122に替えて、触感生成部123に指示してもよい。この場合、触感生成部123は、CPU101からの指示に従い、触感を生成する。
一方、S310において、CPU101は、タッチ位置が消しゴム領域か否かを確認する。ここで、消しゴム領域とは、ディスプレイにおいて、消しゴムボタンが表示されている領域に対応するタッチパネル120上の領域である。CPU101は、タッチ位置が消しゴム領域である場合には(S310でYes)、処理をS311へ進める。CPU101は、タッチ位置が消しゴム領域でない場合、すなわち表示中の画像上の位置である場合には(S311でNo)、処理をS400(図4)へ進める。S311において、CPU101は、操作状態を消しゴム選択中に設定し、処理をS300へ進める。
次に、S402において、CPU101は、タッチ位置に対応するディスプレイ105上の位置(表示画面上の位置)に表示された画像の領域を、触感領域として設定する(設定処理)。具体的には、CPU101は、S401において特定した触感情報を、触感マップ中の、タッチ位置に対応するセルに設定することにより、タッチ位置に対応する画像の領域を触感領域として設定する。
図4のS402において、CPU101は、具体的には、触感マップ500において、タッチ位置に対応するセルを特定する。そして、CPU101は、特定したセルに、S401において特定した触感情報(触感表示色、触感種別及び触感強度)を設定する。
なお、パレットテーブル200において触感ボタン毎に定められている触感表示色は、ディスプレイ105に表示される触感ボタンの表示色とは無関係であるが、これを同一の色としてもよい。触感表示色と触感ボタンの表示色を同一色とした場合には、ユーザは、触感表示色から、触感が設定された位置だけでなく、設定された触感種別を視覚的に把握することができる。
S403において、CPU101は、触感領域の表示態様を、他の領域の表示態様と異なる表示態様で表示すればよく、そのための具体的な処理は、実施形態に限定されるものではない。
なお、CPU101は、後述の触感再生モードにおいては、触感領域に点を重畳して描画する処理は行わない。すなわち、触感再生モードにおいては、触感領域は、他の領域と同じ表示態様で表示される。
一方、S410において、CPU101は、触感マップ500においてタッチ位置に対応するセルに設定されている触感情報(触感表示色、触感種別及び触感強度)をクリア(削除)する。ここで、S410の処理は、タッチ位置の触感領域の設定を解除する解除処理の一例である。次に、S411において、CPU101は、S411において、CPU101は、タッチ位置に対応する触感領域の表示を、元の表示態様に戻す。具体的には、CPU101は、S403において描画された点を削除する。
以上のように、触感設定モードにおいて、CPU101は、ユーザ操作に応じて触感の選択を受け付け、その後のタッチ操作に従い、表示中の画像の任意の位置に触感を設定することができる。さらに、CPU101は、消しゴムの選択を受け付け、その後のタッチ操作に従い、既に設定された触感をクリアすることができる。
S601において、CPU101は、触感マップ500を参照し、タッチ位置に対応するセルに設定されている触感種別及び触感強度を特定する。次に、S602において、CPU101は、S601において特定した触感種別及び触感強度の触感生成を触感生成部122に指示する。これに対し、触感生成部122は、CPU101からの指示に従い、触感を生成する。なお、他の例としては、S620において、CPU101は、触感の生成を触感生成部122に替えて、触感生成部123に指示してもよい。この場合、触感生成部123は、CPU101からの指示に従い、触感を生成する。
以上のように、触感再生モードにおいて、CPU101は、ユーザによる画像へのタッチ入力を検出した場合に、タッチ箇所の設定された触感を生成し、ユーザに触感を与えることができる。
以上のように、本実施形態にかかる電子機器100は、ユーザが画像をタッチした場合に、操作子に与える触感を設定することができる。さらに、電子機器100は、設定された触感を生成することができる。
次に、第2の実施形態にかかる電子機器100について説明する。第2の実施形態にかかる電子機器100は、ユーザから触感マップの複数のセルに対応する設定範囲の指定を受け付ける。そして、設定範囲に対応する画像の領域を、触感領域として設定する。ここでは、第2の実施形態にかかる電子機器100について、第1の実施形態にかかる電子機器100と異なる点について説明する。
図7は、第2の実施形態にかかる電子機器100による、触感設定モードにおける処理を示すフローチャートである。なお、第2の実施形態にかかる電子機器100は、第1の実施形態にかかる電子機器100と同様にS300〜S311(図3)の処理を行う。そして、タッチ位置が触感ボタン領域でなく、かつ消しゴム領域でない場合(S302でNo、S310でNo)、すなわち表示中の画像上の位置である場合には、処理を図7に示すS700へ進める。
S701において、CPU101は、タッチ位置を選択範囲の始点に設定する。次に、S702において、タッチアップの有無を確認する。CPU101は、タッチアップが検出された場合には(S702でYes)、処理を終了する。CPU101は、タッチアップが検出されなかった場合には(S702でNo)、処理をS703へ進める。S703において、CPU101は、ムーブの有無を確認する。CPU101は、ムーブが検出された場合には(S703でYes)、処理をS704へ進める。CPU101は、ムーブが検出されなかった場合には(S703でNo)、S702へ進める。
S705において、CPU101は、タッチアップが検出されたタッチ位置を設定範囲の終点に設定する。そして、CPU101は、S701において設定された始点と、終点とを対角とする矩形領域を設定範囲として設定する。ここで、S701〜S705の処理は、CPU101が設定範囲の指定を受け付ける範囲受付処理の一例である。
一方、S710において、CPU101は、タッチ位置を設定範囲の始点に設定する。次に、S711において、タッチアップの有無を確認する。CPU101は、タッチアップが検出された場合には(S711でYes)、処理を終了する。CPU101は、タッチアップが検出されなかった場合には(S711でNo)、処理をS712へ進める。S712において、CPU101は、ムーブの有無を確認する。CPU101は、ムーブが検出された場合には(S712でYes)、処理をS713へ進める。CPU101は、ムーブが検出されなかった場合には(S712でNo)、S711へ進める。
S714において、CPU101は、タッチアップが検出されたタッチ位置を設定範囲の終点に設定する。そして、CPU101は、S710において設定された始点と、終点とを対角とする矩形領域を設定範囲として設定する。次に、S715において、CPU101は、触感マップ500において、設定範囲に対応するセルに設定されている触感情報(触感表示色、触感種別及び触感強度)をクリア(削除)する。次に、S716において、CPU101は、設定範囲に対応する触感領域の表示を、元の表示態様に戻す。具体的には、CPU101は、S708において描画された点を削除する。
なお、第2の実施形態にかかる電子機器100のこれ以外の構成及び処理は、第1の実施形態にかかる電子機器100の構成及び処理と同様である。
次に、第3の実施形態にかかる電子機器100について説明する。第3の実施形態にかかる電子機器100は、ユーザ指示に従い、タッチ位置に対し、触感領域を設定するのと同時に、タッチ位置に対応する画像中の画素の色を変更する。ここでは、第3の実施形態にかかる電子機器100について、第1の実施形態にかかる電子機器100と異なる点について説明する。
図8は、第3の実施形態にかかる電子機器100による、触感設定モードにおける処理を示すフローチャートである。なお、第2の実施形態にかかる電子機器100は、第1の実施形態にかかる電子機器100と同様にS300〜S311(図3)の処理を行う。また、S400以降の処理(図4)も、第1の実施形態にかかる電子機器100の処理とほぼ同様である。図8において、図4に示す各処理と同じ処理には、同一番号を付している。
一方、CPU101は、S411において、触感領域の表示を、元の表示態様に戻した後、処理をS810へ進める。S810において、CPU101は、画像中のタッチ位置に対応する位置の画素の色を触感表示色から、元の画素の色に戻し、その後、処理をS412へ進める。ここで、S810の処理は、S400の処理の後であって、S412の処理前に実行されればよく、処理順番は、実施形態に限定されるものではない。
なお、第3の実施形態にかかる電子機器100のこれ以外の構成及び処理は、他の実施形態にかかる電子機器100の構成及び処理と同様である。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。
Claims (24)
- 表示画面に画像を表示する表示制御手段と、
触感設定モードにおいて、表示色に対応付けられた複数のボタンの中からいずれかを選択する選択手段と、
前記表示画面に表示されている画像上に、前記選択手段で選択されたボタンに対応づけられている表示色で描画する描画手段と、
前記描画手段により描画された領域を触感領域と設定するとともに、選択された前記ボタンに予め対応付けられている触感の種別を前記触感領域に設定する設定手段と、
前記設定手段で設定した前記触感領域に関する情報を前記画像に関連付けて記録する記録手段と
を有し、
さらに、前記選択手段において、消しゴムボタンが選択されている場合に前記触感領域を指定したことに応じて、指定された領域に設定されている触感を削除することを特徴とする情報処理装置。 - 触感の種別を指定する指定手段をさらに有し、
前記設定手段は、前記触感領域毎に指定された触感の種別をさらに設定し、
前記記録手段は、前記画像に関連付けて、前記触感領域毎に指定された触感の種別を記録することを特徴とする請求項1に記載の情報処理装置。 - 前記表示制御手段は、前記触感領域を、前記選択手段で選択されたボタンによって異なる表示色で表示することを特徴とする請求項1又は2に記載の情報処理装置。
- 触感の強度の指定を受け付ける強度受付手段をさらに有し、
前記設定手段は、前記触感領域毎に指定された強度をさらに設定し、
前記記録手段は、前記画像に関連付けて、前記触感領域毎に指定された触感の強度を記録する請求項2又は3に記載の情報処理装置。 - ユーザによる操作子を用いた表示画面へのタッチ入力を検出する検出手段をさらに有し、
前記設定手段は、前記検出手段が検出したタッチ入力により前記表示画面内での範囲の指定を受け付けて、受け付けた当該範囲を前記触感領域として設定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。 - 前記表示画面を介して操作子に与える触感を生成する触感生成手段をさらに有し、
前記検出手段が、前記触感領域へのタッチ入力を検出した場合に、前記触感生成手段は、前記触感領域に設定されている触感を生成することを特徴とする請求項5に記載の情報処理装置。 - 前記触感領域の色を指定する色指定手段をさらに有し、
前記表示制御手段は、前記触感領域の色を、前記色指定手段で指定された色で表示することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。 - さらに、前記ユーザによりタッチされた領域が、前記設定手段により設定された前記触感領域である場合に、当該領域に設定されている触感の種別での触感を提供する触感再生モードを有することを特徴とする請求項5又は6に記載の情報処理装置。
- 情報処理装置が実行する情報処理方法であって、
表示画面に画像を表示する表示制御ステップと、
触感設定モードにおいて、表示色に対応付けられた複数のボタンの中からいずれかを選択する選択ステップと、
前記表示画面に表示されている画像上に、前記選択ステップにおいて選択されたボタンに対応づけられている表示色で描画する描画ステップと、
前記描画ステップにおいて描画された領域を触感領域と設定するとともに、選択された前記ボタンに予め対応付けられている触感の種別を前記触感領域に設定する設定ステップと、
前記設定ステップにおいて設定した前記触感領域に関する情報を前記画像に関連付けて記録する記録ステップと
を含み、
さらに、前記選択ステップにおいて、消しゴムボタンが選択されている場合に前記触感領域を指定したことに応じて、指定された領域に設定されている触感を削除することを特徴とする情報処理方法。 - 触感の種別を指定する指定ステップをさらに含み、
前記設定ステップでは、前記触感領域毎に指定された触感の種別をさらに設定し、
前記記録ステップでは、前記画像に関連付けて、前記触感領域毎に指定された触感の種別を記録することを特徴とする請求項9に記載の情報処理方法。 - 前記表示制御ステップでは、前記触感領域を、前記選択ステップにおいて選択されたボタンによって異なる表示色で表示することを特徴とする請求項9又は10に記載の情報処理方法。
- 触感の強度の指定を受け付ける強度受付ステップをさらに含み、
前記設定ステップでは、前記触感領域毎に指定された強度をさらに設定し、
前記記録ステップでは、前記画像に関連付けて、前記触感領域毎に指定された触感の強度を記録する請求項10又は11に記載の情報処理方法。 - ユーザによる操作子を用いた表示画面へのタッチ入力を検出する検出ステップをさらに含み、
前記設定ステップでは、前記検出ステップにおいて検出したタッチ入力により前記表示画面内での範囲の指定を受け付けて、受け付けた当該範囲を前記触感領域として設定することを特徴とする請求項9乃至12の何れか1項に記載の情報処理方法。 - 前記表示画面を介して操作子に与える触感を生成する触感生成ステップをさらに含み、
前記検出ステップにおいて前記触感領域へのタッチ入力を検出した場合に、前記触感生成ステップでは、前記触感領域に設定されている触感を生成することを特徴とする請求項13に記載の情報処理方法。 - 前記触感領域の色を指定する色指定ステップをさらに含み、
前記表示制御ステップでは、前記触感領域の色を、前記色指定ステップで指定された色で表示することを特徴とする請求項9乃至14の何れか1項に記載の情報処理方法。 - さらに、前記ユーザによりタッチされた領域が、前記設定ステップにおいて設定された前記触感領域である場合に、当該領域に設定されている触感の種別での触感を提供する触感再生モードを有することを特徴とする請求項13又は14に記載の情報処理方法。
- コンピュータを、
表示画面に画像を表示する表示制御手段と、
触感設定モードにおいて、表示色に対応付けられた複数のボタンの中からいずれかを選択する選択手段と、
前記表示画面に表示されている画像上に、前記選択手段で選択されたボタンに対応づけられている表示色で描画する描画手段と、
前記描画手段により描画された領域を触感領域と設定するとともに、選択された前記ボタンに予め対応付けられている触感の種別を前記触感領域に設定する設定手段と、
前記設定手段で設定した前記触感領域に関する情報を前記画像に関連付けて記録する記録手段と
して機能させるためのプログラムで、
さらに、前記選択手段において、消しゴムボタンが選択されている場合に前記触感領域を指定したことに応じて、指定された領域に設定されている触感を削除することを特徴とすることを特徴とするプログラム。 - 触感の種別を指定する指定手段としてさらに機能させ、
前記設定手段は、前記触感領域毎に指定された触感の種別をさらに設定し、
前記記録手段は、前記画像に関連付けて、前記触感領域毎に指定された触感の種別を記録することを特徴とする請求項17に記載のプログラム。 - 前記表示制御手段は、前記触感領域を、前記選択手段で選択されたボタンによって異なる表示色で表示することを特徴とする請求項17又は18に記載のプログラム。
- 触感の強度の指定を受け付ける強度受付手段としてさらに機能させ、
前記設定手段は、前記触感領域毎に指定された強度をさらに設定し、
前記記録手段は、前記画像に関連付けて、前記触感領域毎に指定された触感の強度を記録する請求項18又は19に記載のプログラム。 - ユーザによる操作子を用いた表示画面へのタッチ入力を検出する検出手段としてさらに機能し、
前記設定手段は、前記検出手段が検出したタッチ入力により前記表示画面内での範囲の指定を受け付けて、受け付けた当該範囲を前記触感領域として設定する請求項17乃至20の何れか1項に記載のプログラム。 - 前記表示画面を介して操作子に与える触感を生成する触感生成手段としてさらに機能させ、
前記検出手段が、前記触感領域へのタッチ入力を検出した場合に、前記触感生成手段は、前記触感領域に設定されている触感を生成することを特徴とする請求項21に記載のプログラム。 - 前記触感領域の色を指定する色指定手段としてさらに機能させ、
前記表示制御手段は、前記触感領域の色を、前記色指定手段で指定された色で表示することを特徴とする請求項17乃至22の何れか1項に記載のプログラム。 - さらに、前記ユーザによりタッチされた領域が、前記設定手段により設定された前記触感領域である場合に、当該領域に設定されている触感の種別での触感を提供する触感再生モードを有することを特徴とする請求項21又は22に記載のプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014000445A JP6289100B2 (ja) | 2014-01-06 | 2014-01-06 | 情報処理装置、情報処理方法及びプログラム |
US14/588,182 US20150192997A1 (en) | 2014-01-06 | 2014-12-31 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014000445A JP6289100B2 (ja) | 2014-01-06 | 2014-01-06 | 情報処理装置、情報処理方法及びプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015130004A JP2015130004A (ja) | 2015-07-16 |
JP2015130004A5 JP2015130004A5 (ja) | 2017-02-09 |
JP6289100B2 true JP6289100B2 (ja) | 2018-03-07 |
Family
ID=53495116
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014000445A Active JP6289100B2 (ja) | 2014-01-06 | 2014-01-06 | 情報処理装置、情報処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20150192997A1 (ja) |
JP (1) | JP6289100B2 (ja) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110058782B (zh) * | 2016-02-22 | 2020-11-24 | 广州视睿电子科技有限公司 | 基于交互式电子白板的触摸操作方法及其系统 |
JP6613170B2 (ja) * | 2016-02-23 | 2019-11-27 | 京セラ株式会社 | 車両用コントロールユニット及びその制御方法 |
JP6758922B2 (ja) * | 2016-06-01 | 2020-09-23 | キヤノン株式会社 | 電子機器及びその制御方法 |
DK201670728A1 (en) | 2016-09-06 | 2018-03-19 | Apple Inc | Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button |
DK179630B1 (en) * | 2016-09-06 | 2019-03-05 | Apple Inc. | Devices, methods and graphical user interfaces for providing feedback during interaction with an intensity sensitive button |
US10194078B2 (en) | 2017-06-09 | 2019-01-29 | Immersion Corporation | Haptic enabled device with multi-image capturing abilities |
JP6961451B2 (ja) * | 2017-10-12 | 2021-11-05 | キヤノン株式会社 | 電子機器、その制御方法およびプログラム |
CN109727300A (zh) * | 2018-12-18 | 2019-05-07 | Oppo广东移动通信有限公司 | 图像触感编辑方法、装置、终端及存储介质 |
CN110146168B (zh) * | 2019-04-16 | 2022-03-11 | 歌尔光学科技有限公司 | 信息输入方法、装置、设备及系统 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5626429A (en) * | 1995-04-03 | 1997-05-06 | Choate; John I. M. | Keyboard arrangement to maximize one-handed typing speed and training for engineering and architectural computer assisted drawing and design or disabled typists |
JP4230318B2 (ja) * | 2003-09-11 | 2009-02-25 | 株式会社イシダ | 商品情報処理装置 |
JP2006171945A (ja) * | 2004-12-14 | 2006-06-29 | Canon Inc | 画像処理装置 |
US8138896B2 (en) * | 2007-12-31 | 2012-03-20 | Apple Inc. | Tactile feedback in an electronic device |
EP3130983B1 (en) * | 2008-07-15 | 2018-11-14 | Immersion Corporation | Systems and methods for shifting haptic feedback function between passive and active modes |
WO2010105012A1 (en) * | 2009-03-12 | 2010-09-16 | Immersion Corporation | Systems and methods for a texture engine |
US9874935B2 (en) * | 2009-03-12 | 2018-01-23 | Immersion Corporation | Systems and methods for a texture engine |
JP5809079B2 (ja) * | 2011-02-10 | 2015-11-10 | 京セラ株式会社 | 電子機器及び電子機器の制御方法 |
DE102011011769A1 (de) * | 2011-02-18 | 2012-08-23 | Fresenius Medical Care Deutschland Gmbh | Medizintechnisches Gerät mit Touchscreen und Verfahren |
US9519347B2 (en) * | 2011-10-27 | 2016-12-13 | Kyocera Corporation | Tactile sensation providing device |
TW201324307A (zh) * | 2011-12-08 | 2013-06-16 | Acer Inc | 電子裝置及控制電子裝置的方法 |
JP5950275B2 (ja) * | 2011-12-21 | 2016-07-13 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 表示装置上に表示可能な1又は複数の電子データ中に振動部分を設定する方法、並びに、その装置及びコンピュータ・プログラム |
US9874964B2 (en) * | 2012-06-04 | 2018-01-23 | Sony Interactive Entertainment Inc. | Flat joystick controller |
-
2014
- 2014-01-06 JP JP2014000445A patent/JP6289100B2/ja active Active
- 2014-12-31 US US14/588,182 patent/US20150192997A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
JP2015130004A (ja) | 2015-07-16 |
US20150192997A1 (en) | 2015-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6289100B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
US9507422B2 (en) | Image processing device, tactile sense control method, and recording medium | |
JP6381240B2 (ja) | 電子機器、触感制御方法及びプログラム | |
JP6347587B2 (ja) | 音声認識を用いて予め設定された動作モードを遂行する方法及びその装置 | |
JP6300604B2 (ja) | 触感制御装置、触感制御方法及びプログラム | |
JP6071372B2 (ja) | 電子機器及び電子機器の制御方法 | |
JP2015118605A (ja) | 触感制御装置、制御方法及びプログラム | |
EP2811731B1 (en) | Electronic device for editing dual image and method thereof | |
KR102072509B1 (ko) | 그룹 리코딩 방법, 저장 매체 및 전자 장치 | |
JP2014123378A (ja) | 文字拡大表示方法 | |
JP6192276B2 (ja) | 表示制御装置及びその制御方法、プログラム、及び記録媒体 | |
JP2015130006A (ja) | 触感制御装置、触感制御方法及びプログラム | |
EP2950503A1 (en) | Communication system, transfer control device, communication method, and computer program product | |
JP6442266B2 (ja) | 撮像制御装置、その制御方法、プログラム、及び記憶媒体 | |
JP2016009315A (ja) | 触感制御装置、触感制御方法及びプログラム | |
JP6433144B2 (ja) | 電子機器、触感制御方法及びプログラム | |
CN104793736B (zh) | 电子装置及其控制方法 | |
JP6779778B2 (ja) | 表示制御装置およびその制御方法 | |
JP6572107B2 (ja) | 画像処理装置及び画像処理方法 | |
JP7236015B1 (ja) | 電子機器、電子機器の制御方法、及びプログラム | |
JP5943743B2 (ja) | 表示制御装置、その制御方法及びプログラム | |
JP2017010470A (ja) | 電子機器 | |
JP2015225483A (ja) | 表示制御装置 | |
JP2018132831A (ja) | 電子機器、電子機器の制御方法及びプログラム | |
JP2019125024A (ja) | 電子機器、情報処理方法、プログラム及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170105 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170913 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170919 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180109 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180206 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6289100 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |