JP6289100B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6289100B2
JP6289100B2 JP2014000445A JP2014000445A JP6289100B2 JP 6289100 B2 JP6289100 B2 JP 6289100B2 JP 2014000445 A JP2014000445 A JP 2014000445A JP 2014000445 A JP2014000445 A JP 2014000445A JP 6289100 B2 JP6289100 B2 JP 6289100B2
Authority
JP
Japan
Prior art keywords
tactile sensation
area
tactile
setting
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014000445A
Other languages
English (en)
Other versions
JP2015130004A5 (ja
JP2015130004A (ja
Inventor
中川 浩一
浩一 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014000445A priority Critical patent/JP6289100B2/ja
Priority to US14/588,182 priority patent/US20150192997A1/en
Publication of JP2015130004A publication Critical patent/JP2015130004A/ja
Publication of JP2015130004A5 publication Critical patent/JP2015130004A5/ja
Application granted granted Critical
Publication of JP6289100B2 publication Critical patent/JP6289100B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年、カメラによって撮像された画像をタッチパネルと一体化されたディスプレイによって表示可能な電子機器が広く普及している。一方、タッチ操作時に筺体が振動する等して、ユーザに対して触感を与えることにより、より直観的な操作感をユーザに与えることを可能とした電子機器も現れている(例えば、特許文献1参照)。
特開2012−053687号公報
しかしながら、電子機器に表示された撮影画像にユーザがタッチした場合に被写体の触感を得ることができない。
本発明はこのような問題点に鑑みなされたもので、ユーザが画像をタッチした場合に、操作子に与える触感を設定することのできる仕組みを提供することを目的とする。
そこで、本発明は、情報処理装置であって、表示画面に画像を表示する表示制御手段と、触感設定モードにおいて、表示色に対応付けられた複数のボタンの中からいずれかを選択する選択手段と、前記表示画面に表示されている画像上に、前記選択手段で選択されたボタンに対応づけられている表示色で描画する描画手段と、前記描画手段により描画された領域を触感領域と設定するとともに、選択された前記ボタンに予め対応付けられている触感の種別を前記触感領域に設定する設定手段と、前記設定手段で設定した前記触感領域に関する情報を前記画像に関連付けて記録する記録手段とを有し、さらに、前記選択手段において、消しゴムボタンが選択されている場合に前記触感領域を指定したことに応じて、指定された領域に設定されている触感を削除することを特徴とする。
本発明によれば、ユーザが画像をタッチした場合に、操作子に与える触感を設定することができる。
電子機器100を示す図である。 パレットテーブルのデータ構成の一例を示す図である。 触感設定モードにおける処理を示すフローチャートである。 触感設定モードにおける処理を示すフローチャートである。 触感マップのデータ構成の一例を示す図である。 触感再生モードにおける処理を示すフローチャートである。 触感設定モードにおける処理を示すフローチャートである。 触感設定モードにおける処理を示すフローチャートである。
以下、本発明の実施形態について図面に基づいて説明する。
図1は、情報処理装置としての電子機器100を示す図である。電子機器100は、携帯電話等により構成することができる。図1に示すように、内部バス150に対して、CPU101、メモリ102、不揮発性メモリ103、画像処理部104、ディスプレイ105、操作部106、記録媒体I/F107、外部I/F109及び通信I/F110が接続されている。また、内部バス150に対して、撮像部112、荷重検出部121、触感生成部122及び触感生成部123が接続されている。内部バス150に接続される各部は、内部バス150を介して互いにデータのやりとりを行うことができる。
メモリ102は、例えばRAM(半導体素子を利用した揮発性のメモリ等)を有している。CPU101は、例えば不揮発性メモリ103に格納されるプログラムに従い、メモリ102をワークメモリとして用いて、電子機器100の各部を制御する。不揮発性メモリ103には、画像データや音声データ、その他のデータ、CPU101が動作するための各種プログラム等が格納されている。不揮発性メモリ103は、例えばハードディスク(HD)やROM等を有している。
画像処理部104は、CPU101の制御に基づいて、画像データに対して各種画像処理を施す。画像処理が施される画像データとしては、不揮発性メモリ103や記録媒体108に格納された画像データ、外部I/F109を介して取得した映像信号、通信I/F110を介して取得した画像データ、撮像部112で撮像された画像データ等がある。
画像処理部104が行う画像処理には、A/D変換処理、D/A変換処理、画像データの符号化処理、圧縮処理、デコード処理、拡大/縮小処理(リサイズ)、ノイズ低減処理、色変換処理等が含まれる。画像処理部104は、例えば、特定の画像処理を施すための専用の回路ブロックである。また、画像処理の種別によっては、画像処理部104ではなく、CPU101がプログラムに従って画像処理を実行することもできる。
ディスプレイ105は、CPU101の制御に基づいて、画像やGUI(Graphical User Interface)を構成するGUI画面等を表示する。CPU101は、プログラムに従い表示制御信号を生成し、ディスプレイ105に表示するための映像信号を生成し、これをディスプレイ105に出力するように、電子機器100の各部を制御する。そして、ディスプレイ105は、映像信号に基づいて映像を表示する。
なお、他の例としては、電子機器100は、ディスプレイ105を有さず、ディスプレイ105に表示させるための映像信号を出力するためのインターフェースを有することとしてもよい。この場合には、電子機器100は、外付けのモニタ(テレビ等)に対し画像等を表示するものとする。
操作部106は、キーボード等の文字情報入力デバイスや、マウスやタッチパネル120等ポインティングデバイス、ボタン、ダイヤル、ジョイスティック、タッチセンサ、タッチパッド等、ユーザ操作を受け付けるための入力デバイスである。タッチパネル120は、ディスプレイ105に重ね合わせて平面的に構成され、接触された位置に応じた座標情報を出力する入力デバイスである。すなわち、タッチパネル120は、ディスプレイ105に対応する位置に設けられている。タッチパネル120は、入力面の一例である。また、ディスプレイ105は、表示画面の一例である。
記憶媒体I/F107には、メモリーカードやCD、DVD等の記録媒体108が装着可能である。記憶媒体I/F107は、CPU101の制御に基づき、装着された記録媒体108からのデータの読み出しや、装着された記録媒体108へのデータの書き込みを行う。
外部I/F109は、外部機器と有線ケーブルや無線によって接続し、映像信号や音声信号の入出力を行うためのインターフェースである。通信I/F110は、外部機器やインターネット111等と通信(電話通信を含む)して、ファイルやコマンド等の各種データの送受信を行うためのインターフェースである。
撮像部112は、CCDセンサやCMOSセンサ等の撮像素子、ズームレンズ、フォーカスレンズ、シャッター、絞り、測距部、A/D変換器等を有するカメラユニットである。撮像部112は、静止画及び動画を撮像することができる。撮像部112により撮像された画像の画像データは、画像処理部104に送信され、画像処理部104において、各種処理を施された後、静止画ファイル又は動画ファイルとして記録媒体108に記録される。
CPU101は、タッチパネル120から出力されたタッチ位置の座標情報を、内部バス150を介して受信する。そして、CPU101は、座標情報に基づいて、以下の操作や状態を検出する。
・タッチパネル120を指やペンで触れる操作(以下、タッチダウンと称する)。
・タッチパネル120を指やペンで触れている状態(以下、タッチオンと称する)。
・タッチパネル120を指やペンで触れたまま移動する操作(以下、ムーブと称する)。
・タッチパネル120へ触れていた指やペンを離す操作(以下、タッチアップと称する)。
・タッチパネル120に何も触れていない状態(以下、タッチオフと称する)。
CPU101はさらに、ムーブを検出した場合には、タッチ位置の座標変化に基づいて、指やペンの移動方向を判定する。具体的には、CPU101は、タッチパネル120上における移動方向の垂直成分及び水平成分それぞれを判定する。
CPU101はまた、ストローク、フリック及びドラッグの各操作を検出する。CPU101は、タッチダウンから一定のムーブを経てタッチアップが行われた場合に、ストロークを検出する。CPU101は、所定距離以上且つ所定速度以上のムーブが検出され、続けてタッチアップが検出された場合に、フリックを検出する。CPU101はまた、所定距離以上且つ所定速度未満のムーブが検出された場合に、ドラッグを検出する。
なお、フリックは、タッチパネル120上に指を触れたまま、ある程度の距離だけ素早く動かし、そのまま指をタッチパネル120から離す操作である。すなわち、フリックは、タッチパネル120上を指ではじくように素早くなぞる操作である。
タッチパネル120は、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画像認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いても良い。
荷重検出部121は、接着等によりタッチパネル120と一体に設けられている。荷重検出部121は、歪みゲージセンサであり、タッチ操作の押圧力に応じてタッチパネル120が微少量撓む(歪む)ことを利用して、タッチパネル120に加わる荷重(押圧力)を検出する。他の例としては、荷重検出部121は、ディスプレイ105と一体に設けられてもよい。この場合、荷重検出部121は、ディスプレイ105を介して、タッチパネル120に加わる荷重を検出する。
触感生成部122は、タッチパネル120を操作する指やペン等の操作子に与える触感を生成する。触感生成部122は、接着等によりタッチパネル120と一体に設けられている。触感生成部122は、圧電(ピエゾ)素子、より具体的には圧電振動子であり、CPU101の制御の下、任意の振幅及び周波数で振動する。これにより、タッチパネル120が湾曲振動し、タッチパネル120の振動が操作子に触感として伝わる。すなわち、触感生成部122は、自身が振動することにより、操作子に触感を与えるものである。
他の例としては、触感生成部122は、ディスプレイ105と一体に設けられていてもよい。この場合、触感生成部122は、ディスプレイ105を介して、タッチパネル120を湾曲振動させる。
なお、CPU101は、触感生成部122の振幅及び周波数を変更し、様々なパターンで触感生成部122を振動させることにより、様々なパターンの触感を生成させることができる。
また、CPU101は、タッチパネル120おいて検出されたタッチ位置と、荷重検出部121により検出された押圧力に基づいて、触感を制御することができる。例えば、操作子のタッチ操作に対応し、CPU101が、ディスプレイ105に表示されたボタンアイコンに対応するタッチ位置を検出し、荷重検出部121が、所定値以上の押圧力を検出したとする。この場合、CPU101は、1周期前後の振動を生成する。これにより、ユーザは、あたかも機械的なボタンを押しこんだ際のクリック感のような触感を知覚することができる。
さらにCPU101は、ボタンアイコンの位置へのタッチを検出している状態で所定値以上の押圧力を検出した場合にのみ、ボタンアイコンの機能を実行するものとする。すなわち、CPU101は、単にボタンアイコンに触れた場合のように弱い押圧力を検知した場合には、ボタンアイコンの機能を実行しない。これにより、ユーザは、機械的なボタンを押しこんだ際と同じような感覚で操作を行うことができる。
なお、荷重検出部121は、歪みゲージセンサに限定されるものではない。他の例としては、荷重検出部121は、圧電素子を有してもよい。この場合、荷重検出部121は、押圧力に応じて圧電素子から出力される電圧に基づいて、荷重を検出する。さらに、この場合の荷重検出部121としての圧力素子は、触感生成部122としての圧力素子と共通であってもよい。
また、触感生成部122は、圧力素子による振動を生成するものに限定されるものではない。他の例としては、触感生成部122は、電気的な触感を生成するものであってもよい。例えば、触感生成部122は、導電層パネルと絶縁体パネルを有する。ここで、導電層パネルと絶縁体パネルは、タッチパネル120と同様に、ディスプレイ105に重ね合わされ、平面的に設けられている。そして、ユーザが絶縁体パネルに触れると、導電層パネルに正電荷がチャージされる。すなわち、触感生成部122は、導電層パネルに正電荷をチャージすることにより、電気刺激としての触感を生成することができる。また、触感生成部122は、ユーザに、クーロン力により皮膚が引っ張られるような感覚(触感)を与えるものであってもよい。
また他の例としては、触感生成部122は、正電荷をチャージするか否かを、パネル上の位置毎に選択可能な導電層パネルを有してもよい。そして、CPU101は、正電荷のチャージ位置を制御する。これにより、触感生成部122は、ユーザに「ゴツゴツ感」、「ザラザラ感」、「さらさら感」等、様々な触感を与えることができる。
触感生成部123は、電子機器100の全体を振動させることにより、触感を生成する。触感生成部123は、例えば偏心モーター等を有し、公知のバイブレーション機能等を実現する。これにより、電子機器100は、触感生成部123が生成する振動により、電子機器100を持つユーザの手等に触感を与えることができる。
本実施形態にかかる電子機器100は、動作モードとして、触感設定モードと、触感再生モードとを有している。ここで、触感設定モードとは、ディスプレイ105に表示中の画像へのタッチダウンが検出された場合に、画像中のタッチダウンに対応する領域に対し、触感の設定を行うモードである。触感再生モードとは、触感設定モードにおいて触感が設定された画像へのタッチダウンが検出された場合に、タッチダウンがなされた領域に対して設定された触感を生成することにより、ユーザに触感を与えるモードである。
触感設定モードにおいては、ディスプレイ105には、触感パレットが表示される。触感パレットは、ユーザが、触感の種別及び強度を選択するためのユーザインタフェースであり、複数の触感ボタンを含んでいる。ここで、複数の触感ボタンそれぞれは、種別及び強度のうち少なくとも一方が異なる複数の触感に対応している。触感パレットはまた、消しゴムボタンを含んでいる。消しゴムボタンは、既に設定された触感を削除する際に利用される。
図2は、触感パレットに対応するパレットテーブルのデータ構成の一例を示す図である。パレットテーブル200は、触感ボタン名と、触感情報とを対応付ける情報である。パレットテーブル200は、例えば、不揮発性メモリ103等に予め格納されているものとする。
触感ボタン名は、触感ボタンの名称である。触感情報は、触感表示色と、触感種別と、触感強度とを含んでいる。ここで、触感種別は、「ゴツゴツ感」、「ザラザラ感」等触感の種別を示す情報である。触感強度は、触感の強さを示す情報である。触感強度が強い程、操作子に対し、より強い触感を与えることができる。触感表示色は、画像中の領域に触感情報に示される触感が設定された場合に、設定された領域を描画する色である。詳細については後述するが、触感が設定された場合には、設定された領域は、触感表示色で表示される。これにより、ユーザは、いずれの領域に触感が設定されたのかを視覚的に把握することができる。
図2に示すパレットテーブル200においては、触感ボタン1には、触感表示色(255,128,0)、触感種別「触感A」、触感強度「3」の触感情報が対応付けられている。触感ボタン3には、触感表示色(0,64,64)、触感種別「触感C」、触感強度「2」の触感情報が対応付けられている。
図3及び図4は、電子機器100による、触感設定モードにおける処理を示すフローチャートである。なお、後述する電子機器100の機能や処理は、CPU101が不揮発性メモリ103等に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。
S300において、CPU101は、ディスプレイ105に処理対象の画像を表示し(表示処理)。次に、S301において、CPU101は、タッチパネル120へのタッチダウンの有無を確認する。CPU101は、タッチダウンが検出された場合には(S301でYes)、処理をS302へ進める。CPU101は、タッチダウンが検出されない場合には(S301でNo)、処理を終了する。ここで、S301の処理は、ダッチダウン(タッチ入力)を検出する検出処理の一例である。
S302において、CPU101は、タッチダウンがなされたタッチパネル120上の位置、すなわちタッチ位置が触感ボタン領域内か否かを確認する。ここで、触感ボタン領域とは、ディスプレイ105において触感ボタンが表示されている領域に対応するタッチパネル120上の領域である。なお、CPU101は、タッチダウン検出後は、定期的に、タッチ位置を特定するものとする。CPU101は、タッチ位置が触感ボタン領域内である場合には(S302でYes)、処理をS303へ進める。CPU101は、タッチ位置が触感ボタン領域外である場合には(S302でNo)、処理をS310へ進める。
S303において、CPU101は、タッチ位置に対応する触感ボタンの選択を受け付け、タッチ位置に対応する触感ボタンの操作状態を触感ボタン選択中に設定する。ここで、前述の通り、触感ボタンは、パレットテーブル200において、触感情報に対応付けられている。すなわち、S303において、触感ボタンの選択を受け付ける処理は、触感種別の指定を受け付ける種別受付処理及び触感強度の指定を受け付ける強度受付処理の一例である。
次に、S304において、CPU101は、触感ボタンにおいて、タッチ位置に対応する位置に配置されている触感ボタンの状態を「非選択」から「選択中」に変更する。なお、触感パレットに含まれる触感ボタンの状態は、メモリ102等に記憶されているものとする。また、各触感ボタンには、初期状態として「非選択」が設定されているものとする。
次に、S305において、CPU101は、パレットテーブル200を参照し、選択中の触感ボタンに対応する触感情報を特定する。そして、CPU101は、特定した触感情報に示される種別及び強度の触感の生成を触感生成部122に指示する。これに対し、触感生成部122は、CPU101からの指示に従い、触感を生成する。
なお、他の例としては、S305において、CPU101は、触感の生成を触感生成部122に替えて、触感生成部123に指示してもよい。この場合、触感生成部123は、CPU101からの指示に従い、触感を生成する。
次に、S306において、CPU101は、タッチアップの有無を確認する。CPU101は、タッチアップが検出された場合には(S306でYes)、処理をS301へ進める。CPU101は、タッチアップが検出されなかった場合には(S306でNo)、処理をS305へ進める。すなわち、タッチオン状態が継続されている場合には、CPU101は、S305において、触感の生成を継続する。
一方、S310において、CPU101は、タッチ位置が消しゴム領域か否かを確認する。ここで、消しゴム領域とは、ディスプレイにおいて、消しゴムボタンが表示されている領域に対応するタッチパネル120上の領域である。CPU101は、タッチ位置が消しゴム領域である場合には(S310でYes)、処理をS311へ進める。CPU101は、タッチ位置が消しゴム領域でない場合、すなわち表示中の画像上の位置である場合には(S311でNo)、処理をS400(図4)へ進める。S311において、CPU101は、操作状態を消しゴム選択中に設定し、処理をS300へ進める。
図4に示すS400において、CPU101は、触感ボタン選択中であるか否かを確認する。CPU101は、触感ボタン選択中である場合には(S400でYes)、処理をS401へ進める。CPU101は、触感ボタン選択中でない場合には(S400でNo)、処理をS410へ進める。なお、触感ボタン選択中でない場合とは、消しゴムボタン選択中の場合である。S401において、CPU101は、パレットテーブル200を参照し、触感ボタンに対応する触感情報を特定する。
次に、S402において、CPU101は、タッチ位置に対応するディスプレイ105上の位置(表示画面上の位置)に表示された画像の領域を、触感領域として設定する(設定処理)。具体的には、CPU101は、S401において特定した触感情報を、触感マップ中の、タッチ位置に対応するセルに設定することにより、タッチ位置に対応する画像の領域を触感領域として設定する。
図5は、触感マップのデータ構成の一例を示す図である。触感マップ500は、複数のセルを有している。図5に示す501は、1つのセルを示している。触感マップ500は、画像全体に対応し、1つのセルは画像中の1ピクセルに対応している。すなわち、触感マップ500は、処理対象とする画像のピクセル数分のセルを有している。
図4のS402において、CPU101は、具体的には、触感マップ500において、タッチ位置に対応するセルを特定する。そして、CPU101は、特定したセルに、S401において特定した触感情報(触感表示色、触感種別及び触感強度)を設定する。
次に、S403において、CPU101は、S401において特定した触感情報(S402においてセルに設定された触感情報)に含まれる触感表示色の点を、タッチ位置に対応するディスプレイ105上の位置に描画する。これにより、ユーザは、表示中の画像のうち、触感が設定された位置を視覚的に把握することができる。ここで、触感表示色は、パレットテーブル200において、予め設定されており、R,G,Bの3色の合成として表され、各色0〜255の範囲で色の強さが指定されている。
なお、パレットテーブル200において触感ボタン毎に定められている触感表示色は、ディスプレイ105に表示される触感ボタンの表示色とは無関係であるが、これを同一の色としてもよい。触感表示色と触感ボタンの表示色を同一色とした場合には、ユーザは、触感表示色から、触感が設定された位置だけでなく、設定された触感種別を視覚的に把握することができる。
ここで、S403の処理は、ディスプレイに表示される画像のうち、タッチ位置に対応する領域、すなわち触感領域を、他の領域の表示態様と異なる表示態様で表示する表示処理の一例である。なお、S403における処理は、画像に重畳して、触感表示色の点を描画してディスプレイ105に表示する処理であり、表示中の画像そのものに変更を加える処理ではない。
S403において、CPU101は、触感領域の表示態様を、他の領域の表示態様と異なる表示態様で表示すればよく、そのための具体的な処理は、実施形態に限定されるものではない。
なお、CPU101は、後述の触感再生モードにおいては、触感領域に点を重畳して描画する処理は行わない。すなわち、触感再生モードにおいては、触感領域は、他の領域と同じ表示態様で表示される。
次に、S404において、CPU101は、タッチアップの有無を確認する。CPU101は、タッチアップが検出された場合には(S404でYes)、処理を終了する。CPU101は、タッチアップが検出されなかった場合には(S404でNo)、処理をS405へ進める。S405において、CPU101は、ムーブの有無を確認する。CPU101は、ムーブが検出された場合には(S405でYes)、処理をS401へ進める。CPU101は、ムーブが検出されなかった場合には(S405でNo)、処理をS404へ進める。
一方、S410において、CPU101は、触感マップ500においてタッチ位置に対応するセルに設定されている触感情報(触感表示色、触感種別及び触感強度)をクリア(削除)する。ここで、S410の処理は、タッチ位置の触感領域の設定を解除する解除処理の一例である。次に、S411において、CPU101は、S411において、CPU101は、タッチ位置に対応する触感領域の表示を、元の表示態様に戻す。具体的には、CPU101は、S403において描画された点を削除する。
次に、S412において、CPU101は、タッチアップの有無を確認する。CPU101は、タッチアップが検出された場合には(S412でYes)、処理を終了する。CPU101は、タッチアップが検出されなかった場合には(S412でNo)、処理をS413へ進める。S413において、CPU101は、ムーブの有無を確認する。CPU101は、ムーブが検出された場合には(413でYes)、処理をS410へ進める。CPU101は、ムーブが検出されなかった場合には(S413でNo)、処理をS412へ進める。なお、CPU101は、触感設定モードの終了時に、触感マップ500に設定された触感情報を表示中の画像のヘッダ部分に記録することにより、画像と触感情報とを関連付ける。
以上のように、触感設定モードにおいて、CPU101は、ユーザ操作に応じて触感の選択を受け付け、その後のタッチ操作に従い、表示中の画像の任意の位置に触感を設定することができる。さらに、CPU101は、消しゴムの選択を受け付け、その後のタッチ操作に従い、既に設定された触感をクリアすることができる。
図6は、触感再生モードにおける処理を示すフローチャートである。S600において、CPU101は、タッチダウンの有無を確認する。CPU101は、タッチダウンが検出された場合には(S600でYes)、処理をS601へ進める。CPU101は、タッチダウンが検出されなかった場合には(S600でNo)、処理を終了する。
S601において、CPU101は、触感マップ500を参照し、タッチ位置に対応するセルに設定されている触感種別及び触感強度を特定する。次に、S602において、CPU101は、S601において特定した触感種別及び触感強度の触感生成を触感生成部122に指示する。これに対し、触感生成部122は、CPU101からの指示に従い、触感を生成する。なお、他の例としては、S620において、CPU101は、触感の生成を触感生成部122に替えて、触感生成部123に指示してもよい。この場合、触感生成部123は、CPU101からの指示に従い、触感を生成する。
次に、S603において、CPU101は、タッチアップの有無を確認する。CPU101は、タッチアップが検出された場合には(S603でYes)、処理を終了する。CPU101は、タッチアップが検出されなかった場合には(S603でNo)、処理をS604へ進める。S604において、CPU101は、ムーブの有無を確認する。CPU101は、ムーブが検出された場合には(S604でYes)、処理をS601へ進める。CPU101は、ムーブが検出されなかった場合には(S604でNo)、処理をS603へ進める。
以上のように、触感再生モードにおいて、CPU101は、ユーザによる画像へのタッチ入力を検出した場合に、タッチ箇所の設定された触感を生成し、ユーザに触感を与えることができる。
以上のように、本実施形態にかかる電子機器100は、ユーザが画像をタッチした場合に、操作子に与える触感を設定することができる。さらに、電子機器100は、設定された触感を生成することができる。
(第2の実施形態)
次に、第2の実施形態にかかる電子機器100について説明する。第2の実施形態にかかる電子機器100は、ユーザから触感マップの複数のセルに対応する設定範囲の指定を受け付ける。そして、設定範囲に対応する画像の領域を、触感領域として設定する。ここでは、第2の実施形態にかかる電子機器100について、第1の実施形態にかかる電子機器100と異なる点について説明する。
図7は、第2の実施形態にかかる電子機器100による、触感設定モードにおける処理を示すフローチャートである。なお、第2の実施形態にかかる電子機器100は、第1の実施形態にかかる電子機器100と同様にS300〜S311(図3)の処理を行う。そして、タッチ位置が触感ボタン領域でなく、かつ消しゴム領域でない場合(S302でNo、S310でNo)、すなわち表示中の画像上の位置である場合には、処理を図7に示すS700へ進める。
S700において、CPU101は、触感ボタン選択中であるか否かを確認する。CPU101は、触感ボタン選択中である場合には(S700でYes)、処理をS701へ進める。CPU101は、触感ボタン選択中でない場合には(S700でNo)、処理をS710へ進める。
S701において、CPU101は、タッチ位置を選択範囲の始点に設定する。次に、S702において、タッチアップの有無を確認する。CPU101は、タッチアップが検出された場合には(S702でYes)、処理を終了する。CPU101は、タッチアップが検出されなかった場合には(S702でNo)、処理をS703へ進める。S703において、CPU101は、ムーブの有無を確認する。CPU101は、ムーブが検出された場合には(S703でYes)、処理をS704へ進める。CPU101は、ムーブが検出されなかった場合には(S703でNo)、S702へ進める。
S704において、CPU101は、タッチアップの有無を確認する。CPU101は、タッチアップが検出された場合には(S704でYes)、処理をS705へ進める。CPU101は、タッチアップが検出されなかった場合には(S704でNo)、S704に戻り、タッチアップが検出されるまで待機する。
S705において、CPU101は、タッチアップが検出されたタッチ位置を設定範囲の終点に設定する。そして、CPU101は、S701において設定された始点と、終点とを対角とする矩形領域を設定範囲として設定する。ここで、S701〜S705の処理は、CPU101が設定範囲の指定を受け付ける範囲受付処理の一例である。
次に、S706において、CPU101は、パレットテーブル200を参照し、選択中の触感ボタンに対応する触感情報を特定する。次に、S707において、CPU101は、設定範囲に対応する画像の領域を触感領域として特定し、特定した触感領域に対応する触感マップ中のセルに、S706において特定した触感情報を設定する。次に、S708において、CPU101は、S706において特定した触感情報(S707においてセルに設定された触感情報)に含まれる触感表示色の点を、設定範囲に対応するディスプレイ105上の位置に描画する。
一方、S710において、CPU101は、タッチ位置を設定範囲の始点に設定する。次に、S711において、タッチアップの有無を確認する。CPU101は、タッチアップが検出された場合には(S711でYes)、処理を終了する。CPU101は、タッチアップが検出されなかった場合には(S711でNo)、処理をS712へ進める。S712において、CPU101は、ムーブの有無を確認する。CPU101は、ムーブが検出された場合には(S712でYes)、処理をS713へ進める。CPU101は、ムーブが検出されなかった場合には(S712でNo)、S711へ進める。
S713において、CPU101は、タッチアップの有無を確認する。CPU101は、タッチアップが検出された場合には(S713でYes)、処理をS714へ進める。CPU101は、タッチアップが検出されなかった場合には(S713でNo)、S713に戻り、タッチアップが検出されるまで待機する。
S714において、CPU101は、タッチアップが検出されたタッチ位置を設定範囲の終点に設定する。そして、CPU101は、S710において設定された始点と、終点とを対角とする矩形領域を設定範囲として設定する。次に、S715において、CPU101は、触感マップ500において、設定範囲に対応するセルに設定されている触感情報(触感表示色、触感種別及び触感強度)をクリア(削除)する。次に、S716において、CPU101は、設定範囲に対応する触感領域の表示を、元の表示態様に戻す。具体的には、CPU101は、S708において描画された点を削除する。
以上のように、第2の実施形態にかかる電子機器100は、ユーザにより指定された設定範囲を単位として、触感の設定及び削除を行うことができる。これにより、ユーザは、一度の操作で、広範囲に対する設定及び削除を指示することができる。
なお、第2の実施形態にかかる電子機器100のこれ以外の構成及び処理は、第1の実施形態にかかる電子機器100の構成及び処理と同様である。
(第3の実施形態)
次に、第3の実施形態にかかる電子機器100について説明する。第3の実施形態にかかる電子機器100は、ユーザ指示に従い、タッチ位置に対し、触感領域を設定するのと同時に、タッチ位置に対応する画像中の画素の色を変更する。ここでは、第3の実施形態にかかる電子機器100について、第1の実施形態にかかる電子機器100と異なる点について説明する。
図8は、第3の実施形態にかかる電子機器100による、触感設定モードにおける処理を示すフローチャートである。なお、第2の実施形態にかかる電子機器100は、第1の実施形態にかかる電子機器100と同様にS300〜S311(図3)の処理を行う。また、S400以降の処理(図4)も、第1の実施形態にかかる電子機器100の処理とほぼ同様である。図8において、図4に示す各処理と同じ処理には、同一番号を付している。
図8に示すように、第3の実施形態にかかる電子機器100のCPU101は、S403において、触感領域に触感表示色の点を描画した後、処理をS800へ進める。S800において、CPU101は、画像中のタッチ位置に対応する位置の画素の色を触感表示色に変更し、その後、処理をS404へ進める。すなわち、S800において、CPU101は、画像データ自体の書き替えを行う。ここで、S800の処理は、画像集処理の一例である。なお、S800の処理は、S401の処理後であって、S404の処理前に実行されればよく、処理順番は、実施形態に限定されるものではない。
一方、CPU101は、S411において、触感領域の表示を、元の表示態様に戻した後、処理をS810へ進める。S810において、CPU101は、画像中のタッチ位置に対応する位置の画素の色を触感表示色から、元の画素の色に戻し、その後、処理をS412へ進める。ここで、S810の処理は、S400の処理の後であって、S412の処理前に実行されればよく、処理順番は、実施形態に限定されるものではない。
以上のように、第3の実施形態にかかる電子機器100は、ユーザにより指定された位置に触感を設定するのと同時に、表示色を変更するように画像を編集することができる。さらに、電子機器100は、ユーザにより指定された位置の触感をクリアするのと同時に、表示色を元の画像の色に戻すように編集することができる。
なお、第3の実施形態にかかる電子機器100のこれ以外の構成及び処理は、他の実施形態にかかる電子機器100の構成及び処理と同様である。
第3の実施形態にかかる電子機器100の変更例としては、CPU101は、ユーザから、触感パレットにおいて、触感情報の指定を受け付けるのと別に、表示色の指定を受け付けてもよい(色受付処理)。この場合には、S800において、CPU101は、画像中のタッチ位置に対応する位置の画素の色を、指定された指定色に変更するような画像編集を行えばよい。
<その他の実施形態>
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
以上、上述した各実施形態によれば、ユーザが画像をタッチした場合に、操作子に与える触感を設定することができる。
本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。
また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。
プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。
また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータがコンピュータプログラムをダウンロードしてプログラムするような方法も考えられる。
100 電子機器、101 CPU、102 メモリ、103 不揮発性メモリ、105 ディスプレイ、120 タッチパネル、121 荷重検出部、122,123 触感生成部

Claims (24)

  1. 表示画面に画像を表示する表示制御手段と、
    触感設定モードにおいて、表示色に対応付けられた複数のボタンの中からいずれかを選択する選択手段と、
    前記表示画面に表示されている画像上に、前記選択手段で選択されたボタンに対応づけられている表示色で描画する描画手段と、
    前記描画手段により描画された領域を触感領域と設定するとともに、選択された前記ボタンに予め対応付けられている触感の種別を前記触感領域に設定する設定手段と、
    前記設定手段で設定した前記触感領域に関する情報を前記画像に関連付けて記録する記録手段と
    を有し、
    さらに、前記選択手段において、消しゴムボタンが選択されている場合に前記触感領域を指定したことに応じて、指定された領域に設定されている触感を削除することを特徴とする情報処理装置。
  2. 触感の種別を指定する指定手段をさらに有し、
    前記設定手段は、前記触感領域毎に指定された触感の種別をさらに設定し、
    前記記録手段は、前記画像に関連付けて、前記触感領域毎に指定された触感の種別を記録することを特徴とする請求項1に記載の情報処理装置。
  3. 前記表示制御手段は、前記触感領域を、前記選択手段で選択されたボタンによって異なる表示で表示することを特徴とする請求項1又は2に記載の情報処理装置。
  4. 触感の強度の指定を受け付ける強度受付手段をさらに有し、
    前記設定手段は、前記触感領域毎に指定された強度をさらに設定し、
    前記記録手段は、前記画像に関連付けて、前記触感領域毎に指定された触感の強度を記録する請求項2又は3に記載の情報処理装置。
  5. ユーザによる操作子を用いた表示画面へのタッチ入力を検出する検出手段をさらに有し、
    前記設定手段は、前記検出手段が検出したタッチ入力により前記表示画面内での範囲の指定を受け付けて、受け付けた当該範囲を前記触感領域として設定することを特徴とする請求項1乃至4の何れか1項に記載の情報処理装置。
  6. 前記表示画面を介して操作子に与える触感を生成する触感生成手段をさらに有し、
    前記検出手段が、前記触感領域へのタッチ入力を検出した場合に、前記触感生成手段は、前記触感領域に設定されている触感を生成することを特徴とする請求項5に記載の情報処理装置。
  7. 前記触感領域の色を指定する色指定手段をさらに有し、
    前記表示制御手段は、前記触感領域の色を、前記色指定手段で指定された色で表示することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. さらに、前記ユーザによりタッチされた領域が、前記設定手段により設定された前記触感領域である場合に、当該領域に設定されている触感の種別での触感を提供する触感再生モードを有することを特徴とする請求項5又は6に記載の情報処理装置。
  9. 情報処理装置が実行する情報処理方法であって、
    表示画面に画像を表示する表示制御ステップと、
    触感設定モードにおいて、表示色に対応付けられた複数のボタンの中からいずれかを選択する選択ステップと、
    前記表示画面に表示されている画像上に、前記選択ステップにおいて選択されたボタンに対応づけられている表示色で描画する描画ステップと、
    前記描画ステップにおいて描画された領域を触感領域と設定するとともに、選択された前記ボタンに予め対応付けられている触感の種別を前記触感領域に設定する設定ステップと、
    前記設定ステップにおいて設定した前記触感領域に関する情報を前記画像に関連付けて記録する記録ステップと
    を含み、
    さらに、前記選択ステップにおいて、消しゴムボタンが選択されている場合に前記触感領域を指定したことに応じて、指定された領域に設定されている触感を削除することを特徴とする情報処理方法。
  10. 触感の種別を指定する指定ステップをさらに含み、
    前記設定ステップでは、前記触感領域毎に指定された触感の種別をさらに設定し、
    前記記録ステップでは、前記画像に関連付けて、前記触感領域毎に指定された触感の種別を記録することを特徴とする請求項9に記載の情報処理方法。
  11. 前記表示制御ステップでは、前記触感領域を、前記選択ステップにおいて選択されたボタンによって異なる表示で表示することを特徴とする請求項9又は10に記載の情報処理方法。
  12. 触感の強度の指定を受け付ける強度受付ステップをさらに含み、
    前記設定ステップでは、前記触感領域毎に指定された強度をさらに設定し、
    前記記録ステップでは、前記画像に関連付けて、前記触感領域毎に指定された触感の強度を記録する請求項10又は11に記載の情報処理方法。
  13. ユーザによる操作子を用いた表示画面へのタッチ入力を検出する検出ステップをさらに含み、
    前記設定ステップでは、前記検出ステップにおいて検出したタッチ入力により前記表示画面内での範囲の指定を受け付けて、受け付けた当該範囲を前記触感領域として設定することを特徴とする請求項9乃至12の何れか1項に記載の情報処理方法。
  14. 前記表示画面を介して操作子に与える触感を生成する触感生成ステップをさらに含み、
    前記検出ステップにおいて前記触感領域へのタッチ入力を検出した場合に、前記触感生成ステップでは、前記触感領域に設定されている触感を生成することを特徴とする請求項13に記載の情報処理方法。
  15. 前記触感領域の色を指定する色指定ステップをさらに含み、
    前記表示制御ステップでは、前記触感領域の色を、前記色指定ステップで指定された色で表示することを特徴とする請求項9乃至14の何れか1項に記載の情報処理方法。
  16. さらに、前記ユーザによりタッチされた領域が、前記設定ステップにおいて設定された前記触感領域である場合に、当該領域に設定されている触感の種別での触感を提供する触感再生モードを有することを特徴とする請求項13又は14に記載の情報処理方法。
  17. コンピュータを、
    表示画面に画像を表示する表示制御手段と、
    触感設定モードにおいて、表示色に対応付けられた複数のボタンの中からいずれかを選択する選択手段と、
    前記表示画面に表示されている画像上に、前記選択手段で選択されたボタンに対応づけられている表示色で描画する描画手段と、
    前記描画手段により描画された領域を触感領域と設定するとともに、選択された前記ボタンに予め対応付けられている触感の種別を前記触感領域に設定する設定手段と、
    前記設定手段で設定した前記触感領域に関する情報を前記画像に関連付けて記録する記録手段と
    して機能させるためのプログラムで、
    さらに、前記選択手段において、消しゴムボタンが選択されている場合に前記触感領域を指定したことに応じて、指定された領域に設定されている触感を削除することを特徴とすることを特徴とするプログラム。
  18. 触感の種別を指定する指定手段としてさらに機能させ、
    前記設定手段は、前記触感領域毎に指定された触感の種別をさらに設定し、
    前記記録手段は、前記画像に関連付けて、前記触感領域毎に指定された触感の種別を記録することを特徴とする請求項17に記載のプログラム。
  19. 前記表示制御手段は、前記触感領域を、前記選択手段で選択されたボタンによって異なる表示で表示することを特徴とする請求項17又は18に記載のプログラム。
  20. 触感の強度の指定を受け付ける強度受付手段としてさらに機能させ、
    前記設定手段は、前記触感領域毎に指定された強度をさらに設定し、
    前記記録手段は、前記画像に関連付けて、前記触感領域毎に指定された触感の強度を記録する請求項18又は19に記載のプログラム。
  21. ユーザによる操作子を用いた表示画面へのタッチ入力を検出する検出手段としてさらに機能し、
    前記設定手段は、前記検出手段が検出したタッチ入力により前記表示画面内での範囲の指定を受け付けて、受け付けた当該範囲を前記触感領域として設定する請求項17乃至20の何れか1項に記載のプログラム。
  22. 前記表示画面を介して操作子に与える触感を生成する触感生成手段としてさらに機能させ、
    前記検出手段が、前記触感領域へのタッチ入力を検出した場合に、前記触感生成手段は、前記触感領域に設定されている触感を生成することを特徴とする請求項21に記載のプログラム。
  23. 前記触感領域の色を指定する色指定手段としてさらに機能させ、
    前記表示制御手段は、前記触感領域の色を、前記色指定手段で指定された色で表示することを特徴とする請求項17乃至22の何れか1項に記載のプログラム。
  24. さらに、前記ユーザによりタッチされた領域が、前記設定手段により設定された前記触感領域である場合に、当該領域に設定されている触感の種別での触感を提供する触感再生モードを有することを特徴とする請求項21又は22に記載のプログラム。
JP2014000445A 2014-01-06 2014-01-06 情報処理装置、情報処理方法及びプログラム Active JP6289100B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014000445A JP6289100B2 (ja) 2014-01-06 2014-01-06 情報処理装置、情報処理方法及びプログラム
US14/588,182 US20150192997A1 (en) 2014-01-06 2014-12-31 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014000445A JP6289100B2 (ja) 2014-01-06 2014-01-06 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2015130004A JP2015130004A (ja) 2015-07-16
JP2015130004A5 JP2015130004A5 (ja) 2017-02-09
JP6289100B2 true JP6289100B2 (ja) 2018-03-07

Family

ID=53495116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014000445A Active JP6289100B2 (ja) 2014-01-06 2014-01-06 情報処理装置、情報処理方法及びプログラム

Country Status (2)

Country Link
US (1) US20150192997A1 (ja)
JP (1) JP6289100B2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110058782B (zh) * 2016-02-22 2020-11-24 广州视睿电子科技有限公司 基于交互式电子白板的触摸操作方法及其系统
JP6613170B2 (ja) * 2016-02-23 2019-11-27 京セラ株式会社 車両用コントロールユニット及びその制御方法
JP6758922B2 (ja) * 2016-06-01 2020-09-23 キヤノン株式会社 電子機器及びその制御方法
DK201670728A1 (en) 2016-09-06 2018-03-19 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Feedback During Interaction with an Intensity-Sensitive Button
DK179630B1 (en) * 2016-09-06 2019-03-05 Apple Inc. Devices, methods and graphical user interfaces for providing feedback during interaction with an intensity sensitive button
US10194078B2 (en) 2017-06-09 2019-01-29 Immersion Corporation Haptic enabled device with multi-image capturing abilities
JP6961451B2 (ja) * 2017-10-12 2021-11-05 キヤノン株式会社 電子機器、その制御方法およびプログラム
CN109727300A (zh) * 2018-12-18 2019-05-07 Oppo广东移动通信有限公司 图像触感编辑方法、装置、终端及存储介质
CN110146168B (zh) * 2019-04-16 2022-03-11 歌尔光学科技有限公司 信息输入方法、装置、设备及系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5626429A (en) * 1995-04-03 1997-05-06 Choate; John I. M. Keyboard arrangement to maximize one-handed typing speed and training for engineering and architectural computer assisted drawing and design or disabled typists
JP4230318B2 (ja) * 2003-09-11 2009-02-25 株式会社イシダ 商品情報処理装置
JP2006171945A (ja) * 2004-12-14 2006-06-29 Canon Inc 画像処理装置
US8138896B2 (en) * 2007-12-31 2012-03-20 Apple Inc. Tactile feedback in an electronic device
EP3130983B1 (en) * 2008-07-15 2018-11-14 Immersion Corporation Systems and methods for shifting haptic feedback function between passive and active modes
WO2010105012A1 (en) * 2009-03-12 2010-09-16 Immersion Corporation Systems and methods for a texture engine
US9874935B2 (en) * 2009-03-12 2018-01-23 Immersion Corporation Systems and methods for a texture engine
JP5809079B2 (ja) * 2011-02-10 2015-11-10 京セラ株式会社 電子機器及び電子機器の制御方法
DE102011011769A1 (de) * 2011-02-18 2012-08-23 Fresenius Medical Care Deutschland Gmbh Medizintechnisches Gerät mit Touchscreen und Verfahren
US9519347B2 (en) * 2011-10-27 2016-12-13 Kyocera Corporation Tactile sensation providing device
TW201324307A (zh) * 2011-12-08 2013-06-16 Acer Inc 電子裝置及控制電子裝置的方法
JP5950275B2 (ja) * 2011-12-21 2016-07-13 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation 表示装置上に表示可能な1又は複数の電子データ中に振動部分を設定する方法、並びに、その装置及びコンピュータ・プログラム
US9874964B2 (en) * 2012-06-04 2018-01-23 Sony Interactive Entertainment Inc. Flat joystick controller

Also Published As

Publication number Publication date
JP2015130004A (ja) 2015-07-16
US20150192997A1 (en) 2015-07-09

Similar Documents

Publication Publication Date Title
JP6289100B2 (ja) 情報処理装置、情報処理方法及びプログラム
US9507422B2 (en) Image processing device, tactile sense control method, and recording medium
JP6381240B2 (ja) 電子機器、触感制御方法及びプログラム
JP6347587B2 (ja) 音声認識を用いて予め設定された動作モードを遂行する方法及びその装置
JP6300604B2 (ja) 触感制御装置、触感制御方法及びプログラム
JP6071372B2 (ja) 電子機器及び電子機器の制御方法
JP2015118605A (ja) 触感制御装置、制御方法及びプログラム
EP2811731B1 (en) Electronic device for editing dual image and method thereof
KR102072509B1 (ko) 그룹 리코딩 방법, 저장 매체 및 전자 장치
JP2014123378A (ja) 文字拡大表示方法
JP6192276B2 (ja) 表示制御装置及びその制御方法、プログラム、及び記録媒体
JP2015130006A (ja) 触感制御装置、触感制御方法及びプログラム
EP2950503A1 (en) Communication system, transfer control device, communication method, and computer program product
JP6442266B2 (ja) 撮像制御装置、その制御方法、プログラム、及び記憶媒体
JP2016009315A (ja) 触感制御装置、触感制御方法及びプログラム
JP6433144B2 (ja) 電子機器、触感制御方法及びプログラム
CN104793736B (zh) 电子装置及其控制方法
JP6779778B2 (ja) 表示制御装置およびその制御方法
JP6572107B2 (ja) 画像処理装置及び画像処理方法
JP7236015B1 (ja) 電子機器、電子機器の制御方法、及びプログラム
JP5943743B2 (ja) 表示制御装置、その制御方法及びプログラム
JP2017010470A (ja) 電子機器
JP2015225483A (ja) 表示制御装置
JP2018132831A (ja) 電子機器、電子機器の制御方法及びプログラム
JP2019125024A (ja) 電子機器、情報処理方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170105

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170105

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170919

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180206

R151 Written notification of patent or utility model registration

Ref document number: 6289100

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151