JPWO2011040483A1 - 表示装置、制御方法及びプログラム - Google Patents

表示装置、制御方法及びプログラム Download PDF

Info

Publication number
JPWO2011040483A1
JPWO2011040483A1 JP2011534281A JP2011534281A JPWO2011040483A1 JP WO2011040483 A1 JPWO2011040483 A1 JP WO2011040483A1 JP 2011534281 A JP2011534281 A JP 2011534281A JP 2011534281 A JP2011534281 A JP 2011534281A JP WO2011040483 A1 JPWO2011040483 A1 JP WO2011040483A1
Authority
JP
Japan
Prior art keywords
control
direction distance
amount
change
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011534281A
Other languages
English (en)
Other versions
JP5686735B2 (ja
Inventor
麻由子 斎藤
麻由子 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2011534281A priority Critical patent/JP5686735B2/ja
Publication of JPWO2011040483A1 publication Critical patent/JPWO2011040483A1/ja
Application granted granted Critical
Publication of JP5686735B2 publication Critical patent/JP5686735B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Abstract

タッチパネル(2)は、画像を表示する。位置検出部(3)は、前記タッチパネル(2)上での2つの被接触位置のXY座標をそれぞれ検出する。前記位置検出部(3)が、前記2つの被接触位置のXY座標を2回検出すると、演算部(4)は、先の座標検出から後の座標検出までの、2つの被接触位置の間のX方向距離及びY方向距離の各変化量を演算する。制御実行部(5)は、前記演算部(4)が演算したX方向距離の変化量に応じて第1の制御対象の制御を実行し、且つ、前記演算部(4)が演算したY方向距離の変化量に応じて第2の制御対象の制御を実行する。

Description

本発明は、表示装置、制御方法及び記録媒体に関する。
タッチパネルを有する表示装置を備えた各種端末が知られている。例えば、特許文献1〜3には、ユーザによる1本の指による操作だけでなく、2本以上の指によるタッチ(マルチタッチ)で操作可能な表示装置が記載されている。
特許文献1には、2本の指を広げる又は狭める操作を行うことにより、静止画やWEBページ等の画面の表示情報を拡大又は縮小(ズーム)するタッチパネルシステムが記載されている。
特許文献2には、表示装置のパネル画面上に表示された地図を2本の指による操作で拡大又は縮小すること、また、3本の指による操作で車載エアコンの室温調整を行うことが記載されている。
特許文献3には、タッチパネルを搭載した2つの表示部を隣接配置してなる表示装置において、第1のタッチパネル上の第1指と第2のタッチパネル上の第2指との位置の移動距離を算出し、移動距離に、ある一定値以上の差があれば、表示部に表示された画像データを距離の変化に応じて拡大又は縮小する表示装置が記載されている。
特許第3867226号公報 特開2006−162267号公報 特開2007−240964号公報
特許文献1乃至3に記載された技術では、指による1回の操作に応答して、装置は1つの処理を実行する。このため、複数の処理を装置に実行させる場合、複数回の操作が必要であり、操作が煩雑である。
本発明は、上記実情に鑑みてなされたものであり、指等による簡単な操作に応答して、複数の処理を実行することができる表示装置、制御方法及びこれらをコンピュータ上で実現するためのプログラムを記録した記録媒体を提供することを目的とする。
また、本発明は、簡単な操作により複数の指示を入力可能な表示装置、制御方法及びこれらをコンピュータ上で実現するための記録媒体を提供することを他の目的とする。
上記目的を達成するために、本発明の第1の観点に係る表示装置は、
画像を表示するタッチパネルと、
前記タッチパネル上での2つの被接触位置のXY座標をそれぞれ検出する位置検出部と、
前記位置検出部が、前記2つの被接触位置のXY座標を2回検出すると、先の座標検出から後の座標検出までの、2つの被接触位置の間のX方向距離及びY方向距離の各変化量を演算する演算部と、
前記演算部が演算したX方向距離の変化量に応じて第1の制御対象の制御を実行し、且つ、前記演算部が演算したY方向距離の変化量に応じて第2の制御対象の制御を実行する制御実行部と、
を備える。
上記目的を達成するために、本発明の第2の観点に係る制御方法は、
被接触面上の2つの被接触位置のXY座標をそれぞれ検出するステップと、
前記2つの被接触位置のXY座標を所定の期間に2回検出すると、先の座標検出から後の座標検出までの、2つの被接触位置の間のX方向距離及びY方向距離の各変化量を演算するステップと、
前記演算されたX方向距離の変化量に応じて第1の制御対象の制御を実行し、且つ、前記演算されたY方向距離の変化量に応じて第2の制御対象の制御を実行するステップと、
を備える。
上記目的を達成するために、本発明の第3の観点に係るコンピュータ読み取り可能な記録媒体は、
画像を表示するタッチパネルを備えた表示装置のコンピュータに、
前記タッチパネル上での2つの被接触位置のXY座標をそれぞれ検出するステップと、
前記2つの被接触位置のXY座標を所定の期間に2回検出すると、先の座標検出から後の座標検出までの、2つの被接触位置の間のX方向距離及びY方向距離の各変化量を演算するステップと、
前記演算されたX方向距離の変化量に応じて第1の制御対象の制御を実行し、且つ、前記演算されたY方向距離の変化量に応じて第2の制御対象の制御を実行するステップと、
を実行させるプログラムを記録する。
本発明の表示装置は、指等による簡単な操作に応答して、複数の処理を実行することができる。
(a)は、本発明の実施形態に係る表示装置の構成を示すブロック図であり、(b)は位置検出部等の構成を示すブロック図である。 本発明の実施形態に係る表示装置の動作を示すフローチャートである。 図2に示すステップS1〜S4にそれぞれ対応するイメージを示す図である。 (a−1)、(a−2)、(b−1)及び(b−2)は、2本の指をX方向に広げる又は狭める操作を行った際の制御を例示する図である。 (a−1)、(a−2)、(b−1)及び(b−2)は、2本の指をY方向に広げる又は狭める操作を行った際の制御を例示する図である。
以下、本発明の実施の形態にかかる表示装置1を図面を参照して説明する。
本実施形態に係る表示装置1は、図1(a)に示すように、タッチパネル2と、位置検出部3と、演算部4と、制御実行部5とを備える。
タッチパネル2は、LCD(Liquid Crystal Display)2aと、LCD2aの画面上に配置された静電容量方式のタッチセンサ2bと、スピーカ2c等とから構成される。LCD2aは画面に画像を表示し、タッチセンサ2bはユーザの指等で接触された位置(被接触位置)に応じた電圧信号を位置検出部3に供給する。スピーカ2cは、音を出力する。
位置検出部3は、タッチセンサ2bから供給された電圧信号に基づいて、タッチパネル2のユーザの指等により接触された位置のXY座標を検出する。
演算部4は、位置検出部3が、2つの被接触位置のXY座標を連続して2回検出すると、先の2つの被接触位置の間のX方向距離及びY方向距離と、後の2つの被接触位置の間のX方向距離及びY方向距離との各変化量(差分)を演算する。
制御実行部5は、演算部4が演算したX方向距離の変化量に応じて第1の制御対象の制御を実行し、且つ、演算部4が演算したY方向距離の変化量に応じて第2の制御対象の制御を実行する。
ここで、位置検出部3、演算部4及び制御実行部5は、図1(b)に示すように、CPU(Central Processing Unit)51、RAM(Random Access Memory)52、ROM(Read Only Memory)53、ADC(Analog to Digital Converter)54、I/F(Interface)55等から構成されている。位置検出部3、演算部4及び制御実行部5は、CPU51が、記録媒体の一例であるROM53に記憶されたプログラムを実行することにより実現されている。
CPU51は、RAM52に各種のデータを一時的に保存する。ADC54は、タッチセンサ2bから供給された電圧等のアナログ信号をデジタル信号に変換し、CPU51に供給する。I/F55は、CPU51と他のハードウェアとの間でデータの送受信を仲介する。
表示装置1は、タッチパネル2上で2つの被接触位置を連続して2回検出すると、i)先に検出した2つの被検出位置の間のX方向距離とY方向距離を求め、ii)後に検出した2つの被検出位置の間のX方向距離とY方向距離を求め、iii)X方向の距離の変化量(差分)と、Y方向距離の変化量(差分)を演算し、iv) X方向の距離の変化量に応じて、第1の制御対象を制御し、Y方向距離の変化量に応じて、第2の制御対象を制御する。従って、ユーザが2本の指を用いてタッチパネル2を連続してタッチすると、表示装置1は、連続したタッチに伴うX方向距離及びY方向距離の変化量に応じて、X方向とY方向とで別々の制御を行う。これにより、ユーザは、指による簡単な操作により、表示装置1に複数の処理を実行させることができる。
以下、X方向の距離の変化量に応じて、画像の表示サイズを制御し、Y方向距離の変化量に応じて、スピーカ2cの音量を制御する表示装置1の具体例を図2〜図5を参照して説明する。
本実施形態に係る表示装置1は、電源投入後、図2に示す処理を開始する。なお、理解を容易にするため、表示装置1のLCD2aは、図4(a−1)に示すWEBページを表示しているものとする。
まず、表示装置1の位置検出部3は、ユーザの2本の指が共にタッチパネル2に接触しているか否かを、タッチセンサ2bから供給される電圧信号に基づいて判別する(ステップS1)。位置検出部3は、2本の指が共にタッチパネル2に接触していると判別するまで待ち状態となる(ステップS1;NO)。位置検出部3は2本の指が共にタッチパネル2に接触していると判別すると(ステップS1;YES)、タッチパネル2上の2本の指により接触されている2つの被接触位置のXY座標をそれぞれ検出する。
例えば、ユーザが、タッチパネル2上の図3に示す位置PA,PBに指を接触したとする。ここでは、図3に示すように、位置PAのXY座標が(X1,Y1)、位置PBのXY座標が(X2,Y2)であったとする。
演算部4は、位置PAとPBとのX方向の距離X0及びY方向の距離Y0を演算し、演算結果を記憶する(ステップS2)。即ち、X方向距離X0=X2−X1、Y方向距離Y0=Y2−Y1を求め、記憶する。
次に、位置検出部3は、再度、ユーザの2本の指が共にタッチパネル2に接触しているか否かを判別する(ステップS3)。位置検出部3は、ユーザの2本の指が共にタッチパネル2に接触していると判別するまで待ち状態となり(ステップS3;NO)、2本の指が共にタッチパネル2に接触していると判別すると(ステップS3;YES)、2本の指のタッチパネル2上でのXY座標をそれぞれ検出する。
ここで、ユーザがタッチパネル2上の位置PC,PDに指で接触したとする。ここで、位置PCのXY座標が(X1’,Y1’)、位置PDのXY座標が(X2’,Y2’)であるとする。
演算部4は、位置PC,PDのX方向の距離X0’とY方向の距離Y0’を演算し、求めた距離X0’とY0’を記憶する(ステップS4)。即ち、演算部4は、X方向距離X0’=X2’−X1’、Y方向距離Y0’=Y2’−Y1’を求め、求めた距離X0’とY0’を記憶する。
続いて、演算部4は、ステップS2で求められた被接触位置PAとPBの間のX方向距離X0及びY方向距離Y0と、ステップS4で得られた被接触位置PCとPDの間のX方向距離X0’及びY方向距離Y0’とに基づいて、X方向距離の変化量を求めてLCD2aの表示画像の拡大・縮小を制御し、Y方向距離の変化量を求めてスピーカ2cの音量を制御する(ステップS5〜S12)。
まず、X方向距離の変化量を求める処理(ステップS5〜S8)を具体的に説明する。
ステップS5では、演算部4が、X方向距離の変化量に関して、X0’−X0が0より大きいか否かを判定する。つまり、演算部4は、ステップS5で、X方向距離の変化量の正負を判定する。
ステップS5でX方向距離の変化量が正と判定されると(ステップS5;YES)、制御実行部5は、X方向距離の変化量の大きさ|X0’−X0|の値に応じて、第1の制御対象を制御する(ステップS6)。この例では、第1の制御対象は、LCD2aに表示された画像の尺度であり、制御実行部5は、X方向距離の変化量の大きさに応じて、表示画像を拡大する制御を行う。
一方、上記ステップS5でX方向距離の変化量が負と判定されると(ステップS5;NO)、制御実行部5は、X方向距離の変化量の大きさ、即ち|X0’−X0|の値に応じて、第1の制御対象に対して、上記ステップS6の制御とは逆の制御を実行する(ステップS7)。つまり、制御実行部5は、X方向距離の変化量の大きさに応じて、画像を縮小する制御を行う。
上記ステップS6,7の後に、演算部4は、メモリに記憶されたX0にX0’を代入する(ステップS8)。続いて、再び位置検出部3による制御は、上記ステップS3に戻り、位置検出部3は、ユーザの2本の指によるタッチパネル2への次回(3回目)の接触に備えて待ち状態となる。
ここで、以上の処理を、図4(a−1)〜4(b−2)を参照して具体的に説明する。
例えば、図4(a−1)に示すように、表示情報10が通常のサイズ(1倍)でタッチパネル2に表示されているとする。表示情報10は、例えば、WEBページの画像である。なお、図中の枠は、タッチパネル2の外枠に相当する。ここで、ユーザが、1本の指で位置PAに接触し、他の1本の指で位置PBに接触し、続いて、図4(a−2)に示すように、1本の指で位置PCに接触し、他の1本の指で位置PDに接触したとする。この場合には、ユーザが、WEBページ閲覧中に2本の指をX方向に広げる操作を行ったことになる。この操作に伴い、制御実行部5は、図4(a−2)に示すように表示情報10を拡大して表示情報10Aを生成し、LCD2aに表示情報10Aを表示させる。
また、例えば、図4(b−1)に示すように、表示情報20が通常のサイズ(1倍)でタッチパネル2に表示されているとする。ここで、ユーザが、1本の指で位置PAに接触し、他の1本の指で位置PBに接触し、その後、図4(b−2)に示すように、1本の指で位置PCに接触し、他の指で位置PDに接触したとする。この場合には、ユーザが、WEBページ閲覧中に2本の指をX方向に狭める操作を行ったことになる。この操作に伴い、制御実行部5は、表示情報20を縮小し、LCD2aに縮小した表示情報20Aを表示させる。
ここで、ユーザは、ステップS6,7での表示情報10,20の拡大又は縮小率を、この表示情報10,20を表示するアプリケーション毎に適宜設定してもよい。一例として、メーラの場合には、X方向距離の変化量の大きさが所定値以上であれば、制御実行部5が、文字の拡大率を1段階上げる又は下げるようにしてもよい。また、画像を表示するアプリケーションの場合には、X方向距離の変化量の大きさが所定値以上であれば、制御実行部5が、画像の拡大率を10%上げる又は下げるようにしてもよい。
次に、Y方向距離の変化量に関する処理(ステップS9〜S12)を説明する。ステップS9では、演算部4が、Y方向距離の変化量に関して、Y0’−Y0が0より大きいか否かを判定する。つまり、ステップS9では、Y方向距離の変化量の正負を判定している。
ステップS9でY方向距離の変化量が正と判定されると(ステップS9;YES)、制御実行部5は、Y方向距離の変化量の大きさ、即ち|Y0’−Y0|の値に応じて、第2の制御対象の制御を実行する(ステップS10)。第2の制御対象としては、例えばWEBページ上の動画や音楽の音量が挙げられる。ここで、制御実行部5は、Y方向距離の変化量の大きさに応じて、第2の制御対象である音量を上げる制御を行う。
一方、上記ステップS9でY方向距離の変化量が負と判定されると(ステップS9;NO)、制御実行部5は、Y方向距離の変化量の大きさ、即ち|Y0’−Y0|の値に応じて、第2の制御対象に対して、上記ステップS10の制御とは逆の制御を実行する(ステップS11)。つまり、制御実行部5は、Y方向距離の変化量の大きさに応じて、第2の制御対象である音量を下げる制御を行う。
上記ステップS10,11の後に、演算部4は、メモリに記憶されたY0にY0’を代入する(ステップS12)。続いて、制御は、再び位置検出部3による上記ステップS3に戻る。ステップS3に戻ると、位置検出部3は、ユーザの2本の指が共にタッチパネル2に接触していると判別するまで再度待ち状態となり、2本の指が共にタッチパネル2に接触していると判別すると、上記ステップS4以降の処理を繰り返す。
以下、図5(a−1)及び(a−2)を参照して、ステップS10について具体的に説明する。図5(a−1)に示すように、音量表示バー33を含む表示情報30が表示されている。例えば、音量表示バー33のスライダは左端にあり、音量が小さいことを示しているとする。ここで、ユーザが、一方の1本の指を位置PAに接触させ、他方の1本の指を位置PBに接触させた状態から、図5(a−2)に示すように、一方の1本の指を位置PCに接触させ、他方の1本の指を位置PDに接触させた場合を想定する。この場合には、ユーザが、タッチパネル2上で2本の指をY方向に広げる操作を行ったことになる。この操作に伴い、制御実行部5は、図示しない音量制御部を制御し、スピーカ2cの音量を上げる。そして、制御実行部5は、タッチパネル2上に、音量表示バー33Aを含む表示情報30Aを表示する。このとき、制御実行部5は、音量表示バー33Aのスライダを右側に移動することにより、音量が大きくなったことを示す。
以下、図5(b−1)及び(b−2)を参照して、ステップS11について具体的に説明する。図5(b−1)に示すように、音量表示バー43を含む表示情報40が表示されている。例えば、音量表示バー43のスライダは右端にあり、音量が大きいことを示しているとする。ここで、ユーザが、一方の1本の指を位置PAに接触させ、他方の1本の指を位置PBに接触させた状態から、図5(b−2)に示すように、一方の1本の指を位置PCに接触させ、他方の1本の指を位置PDに接触させた場合を想定する。この場合には、ユーザが、タッチパネル2上で2本の指をY方向に狭める操作を行ったことになる。この操作に伴い、制御実行部5は、音量制御部を制御し、スピーカ2cの音量を下げる。そして、制御実行部5は、タッチパネル2上に、音量表示バー43Aを含む表示情報40Aを表示する。このとき、制御実行部5は、音量表示バー43Aのスライダを左側に移動することにより、音量が小さくなったことを示す。
ここで、ユーザは、ステップS10,11での音量を、音声の出力を伴うアプリケーション毎に適宜設定してもよい。一例として、音楽を再生するアプリケーションを実行している場合、Y方向距離の変化量の大きさ|Y0’−Y0|が所定値以上であれば、制御実行部5が、1段階又は10%だけ音量を上げる又は下げるようにしてもよい。
本実施形態では、X方向距離の変化量とY方向距離の変化量とを演算し、X方向距離の変化量の正負及び大きさに応じて、表示情報の拡大又は縮小(ズーム)を行い、また、Y方向距離の変化量の正負及び大きさに応じて、音量の上げ下げを行う。つまり、X方向のみの操作でズーム制御を行い、Y方向のみの操作で音量制御を行うことが可能となる。従って、X方向とY方向とで別々の制御を行うことができ、例えば、方向毎にズーム制御や音量制御等、互いに異なる様々な制御を割り当てることが可能となり、指による簡単な操作により、表示装置1に2つの処理を実行させることができる。
上記実施形態では、2本の指をX方向に広げる又は狭める操作をすることで、図4(a−1)〜(b−2)に示すように、通常サイズの表示情報を、XY方向の比率を保った状態で拡大又は縮小する制御を行ったが、これに限定されない。一例として、タッチパネル2上で、2本の指をX方向に広げる又は狭める操作を行うと、表示情報のX方向だけを拡大又は縮小し、また、2本の指をY方向に広げる又は狭める操作を行うと、表示情報のY方向だけを拡大又は縮小する制御をXY方向にそれぞれ割り当ててもよい。このようにすれば、表示情報のXY方向の比率を保った単なる拡大又は縮小とは異なり、XY方向の比率を変化させた拡大又は縮小を行うことが可能となる。
また、上記ステップS6,7では、X方向距離の変化量の大きさに応じて第1の制御対象(表示情報)の制御(拡大又は縮小)を実行し、また、上記ステップS10,11では、Y方向距離の変化量の大きさに応じて第2の制御対象(音量)の制御(上げ下げ)を実行したが、これに限定されない。一例として、第1及び第2の制御対象を複数の制御対象のうちから選択する選択部が、X方向距離の変化量の大きさに応じて第2の制御対象の制御を実行し、Y方向距離の変化量の大きさに応じて第1の制御対象の制御を実行するように、XY方向に制御対象を適宜割り当ててもよい。ここで、選択部は、図1(b)に示すように、CPU51、RAM52、ROM53、ADC54、I/F55等から構成され、CPUがメモリに記憶されたプログラムを実行することにより、上述の処理が実行される。
また、図5では、ユーザの使い勝手を考慮してタッチパネル2上に音量表示バー33,33A,43,43Aを表示するようにしたが、音量は聴覚で確認できるので、音量表示バー33,33A,43,43Aを表示しなくても構わない。
さらに、ユーザの使い勝手を考慮して、X及びY方向距離の変化量が所定値未満であれば、第1及び第2の制御対象の制御を実行しないように設定してもよい。このようにすれば、ユーザの2本の指によるタッチパネル2への接触の際に、指が僅かに動いただけで、意図しない制御が実行されるような事態を回避できる。
タッチパネル2が画像としてWEBページ以外、即ち地図やTV画面、チャンネルの選択画面等の表示をしているときには、その画面表示に依存して制御対象を変更してもよい。例えば、TV画面を表示しているときには、TV画面の拡大又は縮小と音量の上げ下げとをXY方向にそれぞれ割り当ててもよい。
上記実施形態では、表示装置1は、タッチパネル2が2箇所で接触されることが、2回発生すると、何らかの制御を行った。しかし、1回目の接触から2回目の接触間での時間が所定時間以上の場合には、処理を中断し、ステップS1にもどるようにしてもよい。
この場合、例えば、制御実行部5は、内部タイマを備え、ステップS1及びS3でYesと判別された際に、内部タイマを起動し、ステップS3の処理で、Noと判別された際に、内部タイマの計時時間が基準時間以上となっている場合に、処理を強制的にステップS1にリターンするようにすればよい。
上記実施の形態では、2つの被接触位置が検出された際の入力処理を中心に説明したが、タッチパネルによる通常の入力処理も並行して実行することは当然である。また、2本の指の接触を検出した後、通常の入力処理が検出された場合に、処理をステップS1に戻すようにしてもよい。
また、上記実施形態では、タッチセンサ2bとして、静電容量方式のものを例示したが、タッチセンサ2bは静電容量方式のものに限定されず、マルチタッチに対応したものであればよい。
また、二次元で位置を検出する例を示したが、2本の指の3次元空間内の動きを検出し、X軸方向、Y軸方向、Z軸方向の距離の変化量を検出し、X軸方向の変化量に第1の制御、Y軸方向の変化量に第2の制御、Z軸方向の距離の変化量に第3の制御をわりあててもよい。
以上、本発明をその好適な実施形態に基づいて説明したが、本発明の表示装置は、上記実施形態の構成にのみ限定されるものではなく、上記実施形態の構成から種々の修正及び変更を施したものも、本発明の範囲に含まれる。
なお、本願は、2009年9月29日に出願された日本国特許出願2009−223583号に基づく。本明細書中に日本国特許出願2009−223583号の明細書、特許請求の範囲、および図面全体を参照として取り込むものとする。
1:表示装置
2:タッチパネル
2a:LCD
2b:タッチセンサ
2c:スピーカ
3:位置検出部
4:演算部
5:制御実行部
10,20,30,40:表示情報(制御前)
10A,20A,30A,40A:表示情報(制御後)
PA:1本目の指の位置(移動前)
PC:1本目の指の位置(移動後)
PB:2本目の指の位置(移動前)
PD:2本目の指の位置(移動後)
33,43:音量表示バー(制御前)
33A,43A:音量表示バー(制御後)
51:CPU
52:RAM
53:ROM
54:ADC
55:I/F
本発明は、表示装置、制御方法及びプログラムに関する。
本発明は、上記実情に鑑みてなされたものであり、指等による簡単な操作に応答して、複数の処理を実行することができる表示装置、制御方法及びこれらをコンピュータ上で実現するためのプログラムを提供することを目的とする。
また、本発明は、簡単な操作により複数の指示を入力可能な表示装置、制御方法及びこれらをコンピュータ上で実現するためのプログラムを提供することを他の目的とする。
上記目的を達成するために、本発明の第3の観点に係るプログラムは、
画像を表示するタッチパネルを備えた表示装置のコンピュータに、
前記タッチパネル上での2つの被接触位置のXY座標をそれぞれ検出するステップと、
前記2つの被接触位置のXY座標を所定の期間に2回検出すると、先の座標検出から後の座標検出までの、2つの被接触位置の間のX方向距離及びY方向距離の各変化量を演算するステップと、
前記演算されたX方向距離の変化量に応じて第1の制御対象の制御を実行し、且つ、前記演算されたY方向距離の変化量に応じて第2の制御対象の制御を実行するステップと、 を実行させるプログラムである。

Claims (7)

  1. 画像を表示するタッチパネルと、
    前記タッチパネル上での2つの被接触位置のXY座標をそれぞれ検出する位置検出部と、
    前記位置検出部が、前記2つの被接触位置のXY座標を2回検出すると、先の座標検出から後の座標検出までの、2つの被接触位置の間のX方向距離及びY方向距離の各変化量を演算する演算部と、
    前記演算部が演算したX方向距離の変化量に応じて第1の制御対象の制御を実行し、且つ、前記演算部が演算したY方向距離の変化量に応じて第2の制御対象の制御を実行する制御実行部と、を備える表示装置。
  2. 前記制御実行部は、前記変化量の大きさに対応して前記第1又は第2の制御対象の制御量を決定する、請求項1に記載の表示装置。
  3. 前記第1及び第2の制御対象の少なくとも一方を、複数の制御対象のうちから選択する選択部を更に備える、請求項1又は2に記載の表示装置。
  4. 前記制御実行部は、前記第1又は第2の制御対象が、前記画像の尺度、又は、表示装置が発生する音量である、請求項1乃至3のいずれか1項に記載の表示装置。
  5. 前記制御実行部は、前記X方向距離又はY方向距離の変化量の正又は負に対応して、前記第1又は第2の制御対象の制御量を一方向又は逆方向に変化させる、請求項1乃至4のいずれか1項に記載の表示装置。
  6. 被接触面上の2つの被接触位置のXY座標をそれぞれ検出するステップと、
    前記2つの被接触位置のXY座標を所定の期間に2回検出すると、先の座標検出から後の座標検出までの、2つの被接触位置の間のX方向距離及びY方向距離の各変化量を演算するステップと、
    前記演算されたX方向距離の変化量に応じて第1の制御対象の制御を実行し、且つ、前記演算されたY方向距離の変化量に応じて第2の制御対象の制御を実行するステップと、
    を備える制御方法。
  7. 画像を表示するタッチパネルを備えた表示装置のコンピュータに、
    前記タッチパネル上での2つの被接触位置のXY座標をそれぞれ検出するステップと、
    前記2つの被接触位置のXY座標を所定の期間に2回検出すると、先の座標検出から後の座標検出までの、2つの被接触位置の間のX方向距離及びY方向距離の各変化量を演算するステップと、
    前記演算されたX方向距離の変化量に応じて第1の制御対象の制御を実行し、且つ、前記演算されたY方向距離の変化量に応じて第2の制御対象の制御を実行するステップと、
    を実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2011534281A 2009-09-29 2010-09-29 表示装置、制御方法及びプログラム Expired - Fee Related JP5686735B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011534281A JP5686735B2 (ja) 2009-09-29 2010-09-29 表示装置、制御方法及びプログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009223583 2009-09-29
JP2009223583 2009-09-29
JP2011534281A JP5686735B2 (ja) 2009-09-29 2010-09-29 表示装置、制御方法及びプログラム
PCT/JP2010/066977 WO2011040483A1 (ja) 2009-09-29 2010-09-29 表示装置、制御方法及び記録媒体

Publications (2)

Publication Number Publication Date
JPWO2011040483A1 true JPWO2011040483A1 (ja) 2013-02-28
JP5686735B2 JP5686735B2 (ja) 2015-03-18

Family

ID=43826297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011534281A Expired - Fee Related JP5686735B2 (ja) 2009-09-29 2010-09-29 表示装置、制御方法及びプログラム

Country Status (6)

Country Link
US (1) US9063651B2 (ja)
EP (1) EP2472370B1 (ja)
JP (1) JP5686735B2 (ja)
KR (2) KR20120058585A (ja)
CN (1) CN102576262B (ja)
WO (1) WO2011040483A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI448140B (zh) * 2011-11-11 2014-08-01 Inst Information Industry 手持裝置及其控制方法
JP5817613B2 (ja) * 2012-03-23 2015-11-18 株式会社デンソー 入力装置
WO2015078826A1 (en) 2013-11-26 2015-06-04 Koninklijke Philips N.V. User control device, user control method, system comprising the user control device and record carrier
KR102250856B1 (ko) * 2014-04-30 2021-05-11 삼성전자주식회사 터치 입력 검출 방법, 터치 입력 감지 장치, 및 좌표 표시 장치
CN105468251A (zh) * 2014-09-11 2016-04-06 深圳市麦思美汽车电子有限公司 一种听视觉同步反馈的音量控制方法及系统
JP6978826B2 (ja) * 2016-01-08 2021-12-08 キヤノン株式会社 表示制御装置及びその制御方法、プログラム、並びに記憶媒体
CN106557243A (zh) * 2016-11-30 2017-04-05 依偎科技(南昌)有限公司 智能终端调节音量的方法、装置和智能终端

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230352A (ja) * 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
JP2006277588A (ja) * 2005-03-30 2006-10-12 Clarion Co Ltd タッチパネル及びタッチパネルを備えた電子機器
JP2008052729A (ja) * 2006-08-22 2008-03-06 Samsung Electronics Co Ltd 多接点位置変化感知装置、方法、およびこれを用いたモバイル機器
JP2008217767A (ja) * 2008-01-29 2008-09-18 Fujitsu Ten Ltd 表示装置
JP2009522669A (ja) * 2005-12-30 2009-06-11 アップル インコーポレイテッド マルチタッチ入力を備えた携帯電子装置
JP2009187057A (ja) * 2008-02-01 2009-08-20 Sharp Corp 表示装置及びコンピュータプログラム
JP2010055598A (ja) * 2008-07-31 2010-03-11 Sony Corp 情報処理装置および方法、並びにプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880411A (en) * 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US5825352A (en) * 1996-01-04 1998-10-20 Logitech, Inc. Multiple fingers contact sensing method for emulating mouse buttons and mouse operations on a touch sensor pad
US7663607B2 (en) * 2004-05-06 2010-02-16 Apple Inc. Multipoint touchscreen
JP3867226B2 (ja) 2000-02-15 2007-01-10 株式会社 ニューコム 複数の指示部位で操作可能なタッチパネルシステム
JP4645179B2 (ja) 2004-12-02 2011-03-09 株式会社デンソー 車両用ナビゲーション装置
JP5092255B2 (ja) 2006-03-09 2012-12-05 カシオ計算機株式会社 表示装置
JP5129478B2 (ja) * 2006-03-24 2013-01-30 株式会社デンソーアイティーラボラトリ 画面表示装置
CN101042300B (zh) * 2006-03-24 2014-06-25 株式会社电装 画面显示装置
US7956847B2 (en) * 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
JP5213489B2 (ja) 2008-03-14 2013-06-19 アルパイン株式会社 電圧駆動素子の異常状態検出装置
US8134539B2 (en) * 2009-03-30 2012-03-13 Eastman Kodak Company Digital picture frame having near-touch and true-touch

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230352A (ja) * 1993-09-16 1995-08-29 Hitachi Ltd タッチ位置検出装置及びタッチ指示処理装置
JP2006277588A (ja) * 2005-03-30 2006-10-12 Clarion Co Ltd タッチパネル及びタッチパネルを備えた電子機器
JP2009522669A (ja) * 2005-12-30 2009-06-11 アップル インコーポレイテッド マルチタッチ入力を備えた携帯電子装置
JP2008052729A (ja) * 2006-08-22 2008-03-06 Samsung Electronics Co Ltd 多接点位置変化感知装置、方法、およびこれを用いたモバイル機器
JP2008217767A (ja) * 2008-01-29 2008-09-18 Fujitsu Ten Ltd 表示装置
JP2009187057A (ja) * 2008-02-01 2009-08-20 Sharp Corp 表示装置及びコンピュータプログラム
JP2010055598A (ja) * 2008-07-31 2010-03-11 Sony Corp 情報処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
KR20140000346A (ko) 2014-01-02
US20120188193A1 (en) 2012-07-26
CN102576262B (zh) 2015-09-02
KR101674713B1 (ko) 2016-11-09
EP2472370B1 (en) 2018-02-28
KR20120058585A (ko) 2012-06-07
EP2472370A1 (en) 2012-07-04
CN102576262A (zh) 2012-07-11
EP2472370A4 (en) 2014-04-23
JP5686735B2 (ja) 2015-03-18
WO2011040483A1 (ja) 2011-04-07
US9063651B2 (en) 2015-06-23

Similar Documents

Publication Publication Date Title
JP5686735B2 (ja) 表示装置、制御方法及びプログラム
JP5873942B2 (ja) 携帯端末装置
JP5270485B2 (ja) タッチパネル装置及び方法並びにプログラム及び記録媒体
US20140176421A1 (en) Displaying method for flexible display device and flexible display device using the same
JP5999830B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP6171643B2 (ja) ジェスチャ入力装置
TWI434202B (zh) 具觸控式螢幕的電子裝置及其顯示控制方法
JP2011081440A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2011003202A5 (ja) 情報処理装置、情報処理方法、及びプログラム
KR20140133034A (ko) 포터블 디바이스 및 그 제어 방법
JP2015035092A (ja) 表示制御装置及び表示制御装置の制御方法
JP2010237928A (ja) タッチパネル装置及び情報表示方法
JP2013168144A (ja) イメージ表示方法及びその装置
JP2010287121A (ja) 情報処理装置、プログラム、記録媒体、及び表示制御装置
JP4879933B2 (ja) 画面表示装置、画面表示方法およびプログラム
EP2876540B1 (en) Information processing device
JP6197559B2 (ja) オブジェクト操作システム及びオブジェクト操作制御プログラム並びにオブジェクト操作制御方法
JP5785891B2 (ja) 表示装置
KR101392739B1 (ko) 터치 스크린 디스플레이를 통해 전자문서상에서 테이블을 생성하는 방법 및 장치
JP2010205134A (ja) 情報表示装置
JP4973371B2 (ja) 情報処理装置及びコンピュータプログラム
JP2012173980A (ja) 表示装置、表示方法、及び表示プログラム
WO2017183194A1 (ja) 表示制御装置
JP2009087056A (ja) 入力装置及びコンピュータプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140610

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140722

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20140917

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150120

R150 Certificate of patent or registration of utility model

Ref document number: 5686735

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees