JP5977768B2 - 画像表示装置及びその操作方法 - Google Patents

画像表示装置及びその操作方法 Download PDF

Info

Publication number
JP5977768B2
JP5977768B2 JP2014004060A JP2014004060A JP5977768B2 JP 5977768 B2 JP5977768 B2 JP 5977768B2 JP 2014004060 A JP2014004060 A JP 2014004060A JP 2014004060 A JP2014004060 A JP 2014004060A JP 5977768 B2 JP5977768 B2 JP 5977768B2
Authority
JP
Japan
Prior art keywords
touch
image
indicator
displayed
touch operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014004060A
Other languages
English (en)
Other versions
JP2015132986A (ja
Inventor
謙二 秋友
謙二 秋友
小山 至幸
至幸 小山
古川 勝康
勝康 古川
堅志 近藤
堅志 近藤
貴昭 石田
貴昭 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014004060A priority Critical patent/JP5977768B2/ja
Priority to US14/560,839 priority patent/US10901532B2/en
Priority to CN201510015041.2A priority patent/CN104777996A/zh
Priority to CN201910777680.0A priority patent/CN110647248B/zh
Publication of JP2015132986A publication Critical patent/JP2015132986A/ja
Application granted granted Critical
Publication of JP5977768B2 publication Critical patent/JP5977768B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Description

本発明は、タッチ操作可能な画像表示装置に関し、特に、ペンによるタッチ操作を容易にするユーザインターフェイスを備えた画像表示装置及びその操作方法に関する。
タッチパネルディスプレイを備えた画像表示装置が知られている。近年では、その大画面化が進展し、種々の用途に使用されている。例えば、会議又はプレゼンテーションで使用する電子黒板装置等として用いられている。
ユーザインターフェイスとしては、画面の周縁部に、ペン操作用のアイコンを配置することが行なわれている。例えば、画面の左又は右の辺に沿って縦方向に、描画に関する設定を行なうためのアイコン、又は所定の操作を選択するための複数のアイコンが配置される。ユーザは、ペンで各アイコンをタッチして、ペンによる描画時の条件(線の色及び太さ、又は消しゴム操作)の設定、又はモードの切換等の操作の選択を行なうことができる。このようなユーザインターフェイスは、ユーザによる操作により表示又は消去される。
一方、従来から、タッチパネルの操作性を改善する方法が種々提案されている。例えば、下記特許文献1には、入力ペン等の座標指示器を用いてディスプレイ上に操作メニュー等を展開し得るデジタイザにおける操作性を改善するための方法が開示されている。具体的には、ペンでタッチされた位置を中心として、同心円状の操作メニューを表示する技術が開示されている。
また、下記特許文献2には、ペンを用いた手書きジェスチャー操作が可能な文書作成編集装置において、ペン先位置近傍に編集メニューをポップアップ表示する技術が開示されている。具体的には、文書の所定範囲がペンで範囲指定されると、ポップアップメニューが表示され、ポップアップメニューがタッチされると該当する編集処理が実行されて、ポップアップメニューが消去される。このとき、ポップアップメニュー以外の領域がタッチされると編集処理がキャンセルされ、ポップアップメニューが消去される。
また、下記特許文献3は、1台のコンピュータを複数の者が使用する場合に、他人の作業環境を侵害しないようにすることができるペン操作の位置検出装置を開示している。
具体的には、複数のペンを使用して操作する場合に、ペン毎に符号を定めて、複数種類のペンを区別し、ペンの種類に応じて異なる制御(ユーザの区別、又はペンの色の区別)を行なう技術が開示されている。
特開平8−95737号公報 特開平6−289984号公報 特開平2−292617号公報
上記のように、ペンによるタッチ操作のためのユーザインターフェイスが種々提案されているが、依然として改善の余地がある。特に、大画面の画像表示装置においては、通常、操作用のアイコンを、描画等の処理対象が表示されない、画面の周縁部に固定的に配置しているので、ユーザに十分な操作性を提供することができていない。
例えば、操作用のアイコンを表示する場合、画面の周縁部に表示したとしても、ペンで操作をしない場合にも常に表示されていれば、目障りであり、支障が生じることがある。また、ペンの描画色等を変更する度に、画面の周縁部に表示されたアイコンにタッチすることが必要であり、煩雑である。特に大画面の場合、画面の周縁部まで移動しないといけないので、ユーザに負担を強いる。また、ユーザインターフェイスの表示又は非表示をユーザが切換える必要があり、この点も煩雑である。
また、複数のペンを使用可能な画像表示装置を実現する場合、ペン毎に設定を行なうためのユーザインターフェイスが必要であり、全てのペンのユーザインターフェイスを同時に表示する場合には、画面上の専有面積が大きくなってしまう。1つのユーザインターフェイスを表示する場合には、ペンに応じてユーザインターフェイスを切換える操作が必要であり、煩雑である。
特許文献1〜3は何れも、大画面の画像表示装置におけるペンでの描画処理に関するものではなく、これらの問題を解決することはできない。
したがって、本発明は、ペンによるタッチ操作、特に描画に関する設定を容易に行なうことができるユーザインターフェイスを備えた画像表示装置及びその操作方法を提供することを目的とする。
本発明に係る第1の画像表示装置は、画像を表示する表示部と、表示部に重畳され、タッチペンによるタッチ操作を検出するタッチ検出部と、タッチ検出部により検出されたタッチ操作に割当てられた処理を実行する制御部と、ユーザがタッチペンを持っている状態を検出したタッチペンから送信される所定の第1情報を受信する受信部とを含む。表示部は、受信部が第1情報を受信したことを受けて、タッチペンによるタッチ操作に割当てられた処理に関する設定状態を表示する部分画像を表示する。
これにより、ユーザがタッチペンによりタッチ操作を行なう場合に、ユーザがタッチペンを手に持った時点で、ペン操作の設定状態を表示する部分画像が表示されるので、ユーザは、現在ペン操作にどのような処理が割当てられているかを容易に確認することができる。
好ましくは、受信部は、複数のタッチペンから第1情報を受信し、第1情報は、複数のタッチペンの各々に一意に付与された情報であり、表示部は、受信部により受信された複数の第1情報の各々に1対1に対応する複数の部分画像を表示する。
このように、複数のタッチペンを用いる場合に、各タッチペンが一意の第1情報(ID)を送信することにより、各タッチペンに対応する部分画像を表示することができ、各ユーザは使用中のタッチペンに関する設定情報を容易に確認することができる。
より好ましくは、表示部は、部分画像が、対応するタッチペンでタッチされたことを、タッチ検出部が検出したことを受けて、タッチされた部分画像に対応させて、タッチ操作に割当てられた処理に関する設定状態を変更するためのメニュー画像を表示し、タッチペンによるタッチ操作に割当てられた処理が描画処理であれば、タッチペンによるタッチ操作が開始されたことを受けて、メニュー画像を消去する。
このように、部分画像がタッチペンでタッチされると、ペン操作の設定を変更するためのメニューを表示することにより、ユーザは容易にペン操作の設定を変更することができる。タッチ操作中にメニューを消去することにより、ユーザは、メニューによって邪魔されることなく、容易にタッチ操作を行なうことができる。
さらに好ましくは、表示部は、制御部がタッチペンによるタッチ操作に割当てられた処理を実行した後、タッチ検出部がタッチペンによるタッチを検出しなくなったことを受けて、タッチが検出されなくなったタッチペンに対応する部分画像を、タッチ検出部が最後にタッチを検出した位置から所定範囲内の位置に移動させる。
これにより、ユーザは、1つのタッチ操作を終えた後、タッチ操作の設定変更を容易に行なうことができる。
好ましくは、表示部は、タッチ検出部が、表示されている部分画像以外の領域において、表示されている部分画像に対応するタッチペンによる、制御部により実行される処理が割当てられていない所定のタッチ操作を検出したことを受けて、表示されている部分画像を、所定のタッチ操作が検出された位置に移動させる。
これにより、ユーザは、手が届かない位置に表示されている部分画像を、自分の近くに移動させることができ、タッチ操作の設定変更を容易に行なうことができる。
より好ましくは、受信部は、タッチ操作中のタッチペンから送信される所定の第2情報を受信し、表示部は、受信部が第2情報を受信していない状態で、タッチ検出部が、制御部により実行される処理が割当てられていない所定のタッチ操作を検出したことを受けて、制御部が実行する処理に関する設定状態を表示する、タッチペンに対応する部分画像とは異なる部分画像を表示する。
このように、タッチペンによりタッチ操作がなされるときに、タッチペンが第2情報(スイッチオン情報)を送信することにより、ユーザの指によるタッチ操作に関しても、設定状態を表す部分画像を表示することができ、ユーザは、指によるタッチ操作にどのような処理が割当てられているかを容易に確認することができる。
本発明に係る第2の画像表示装置は、画像を表示する表示部と、表示部に重畳され、タッチ操作を検出するタッチ検出部と、タッチ検出部により検出されたタッチ操作に割当てられた処理を実行する制御部とを含む。表示部は、タッチ検出部が、制御部により実行される処理が割当てられていない所定のタッチ操作を検出したことを受けて、制御部が実行する処理に関する設定状態を表示する部分画像を表示する。
これにより、ユーザの指によるタッチ操作の設定状態を表す部分画像を表示することができ、ユーザは、指によるタッチ操作にどのような処理が割当てられているかを容易に確認することができる。
好ましくは、制御部により実行される処理が割当てられていない所定のタッチ操作は、長押しである。
本発明に係る画像表示装置の操作方法は、画像を表示するステップと、表示された画像に対する、タッチペンによるタッチ操作を検出するステップと、検出されたタッチ操作に割当てられた処理を実行するステップと、ユーザがタッチペンを持っている状態を検出したタッチペンから送信される所定の第1情報を受信するステップと、第1情報を受信したことを受けて、タッチペンによるタッチ操作に割当てられた処理に関する設定状態を表示する部分画像を表示するステップとを含む。
これにより、ユーザがタッチペンによりタッチ操作を行なう場合に、ユーザがタッチペンを手に持った時点で、ペン操作の設定状態を表示する部分画像が表示されるので、ユーザは、現在ペン操作にどのような処理が割当てられているかを容易に確認することができる。
本発明によれば、ユーザがタッチペンによりタッチ操作を行なう場合に、タッチペンを手に持った時点で、ペン操作の設定状態を表示する部分画像(インジケータ)が表示されるので、ユーザは、現在ペン操作の設定状態を容易に確認することができる。また、表示されるメニューにより、設定を容易に変更することができる。
また、ユーザが指で所定のタッチ操作(長押し)を行なった場合に、部分画像(インジケータ)を表示することにより、ユーザは、現在指によるタッチ操作の設定状態を容易に確認することができる。
本発明の第1の実施の形態に係る画像表示装置の構成の概略を示すブロック図である。 タッチ入力の検出方法の一例を示す図である。 図1の画像表示装置を操作するためのタッチペンの構成の概略を示すブロック図である。 図3のタッチペンを示す斜視図である。 図3に示したタッチペンにおいて実行されるプログラムの制御構造を示すフローチャートである。 図1に示した画像表示装置におけるタッチペン操作のユーザインターフェイスを実現するためのプログラムの制御構造を示すフローチャートである。 図6に示したフローチャート中のペンタッチ処理を示すフローチャートである。 図7に示したフローチャート中のペン描画処理を示すフローチャートである。 インジケータが表示された状態の画像表示装置の画面を示す図である。 インジケータの周りにメニューが表示された状態を示す図である。 描画中の画像表示装置の画面を示す図である。 描画後にタッチペンがタッチパネルから離された状態の画像表示装置の画面を示す図である。 本発明の第2の実施の形態に係る画像表示装置におけるタッチペン操作のユーザインターフェイスを実現するためのプログラムの制御構造を示すフローチャートである。 複数のタッチペンに対応する複数のインジケータが表示された状態の画像表示装置の画面を示す図である。 描画後にタッチペンがタッチパネルから離された状態の画像表示装置の画面を示す図である。 本発明の第3の実施の形態に係る画像表示装置におけるタッチペン操作のユーザインターフェイスを実現するためのプログラムの制御構造を示すフローチャートである。 図16に示したフローチャート中の指タッチ処理を示すフローチャートである。 図1に示したフローチャート中の指描画処理を示すフローチャートである。 指での長押しによってインジケータが表示された状態の画像表示装置の画面を示す図である。 指での描画後に指がタッチパネルから離された状態の画像表示装置の画面を示す図である。
以下の実施の形態では、同一の部品には同一の参照番号を付してある。それらの名称及び機能も同一である。したがって、それらについての詳細な説明は繰返さない。
(第1の実施の形態)
図1を参照して、本発明の第1の実施の形態に係る画像表示装置100は、演算処理部(以下、CPUと記す)102、読出専用メモリ(以下、ROMと記す)104、書換可能メモリ(以下、RAMと記す)106、記録部108、通信部110、タッチ検出部112、表示部114、表示制御部116、ビデオメモリ(以下、VRAMと記す)118、タイマ120、及びバス122を備えている。CPU102は、画像表示装置100全体を制御する。
ROM104は不揮発性の記憶装置であり、画像表示装置100の動作を制御するために必要なプログラム及びデータを記憶している。RAM106は、通電が遮断された場合にデータが消去される揮発性の記憶装置である。記録部108は、通電が遮断された場合にもデータを保持する不揮発性記憶装置であり、例えば、ハードディスクドライブ、又はフラッシュメモリ等である。記録部108は着脱可能に構成されていてもよい。CPU102は、バス122を介してROM104からプログラムをRAM106上に読出して、RAM106の一部を作業領域としてプログラムを実行する。CPU102は、ROM104に格納されているプログラムにしたがって画像表示装置100を構成する各部の制御を行なう。
バス122には、CPU102、ROM104、RAM106、記録部108、タッチ検出部112、表示制御部116、VRAM118、及びタイマ120が接続されている。各部間のデータ(制御情報を含む)交換は、バス122を介して行なわれる。
表示部114は、画像を表示するための表示パネル(液晶パネル等)である。表示制御部116は、表示部114を駆動するための駆動部を備え、VRAM118に記憶された画像データを所定のタイミングで読出し、表示部114に画像として表示するための信号を生成して、表示部114に出力する。表示される画像データは、CPU102が記録部108から読出して、VRAM118に伝送する。
タッチ検出部112は、例えばタッチパネルであり、ユーザによるタッチ操作を検出する。タッチ検出部112は、表示部114の表示画面に重畳して配置される。したがって、タッチ検出部112へのタッチは、タッチ位置に対応する、表示画面に表示された画像の点を指定する操作になる。以下、タッチ検出部112及び表示部114をタッチパネルディスプレイ124という。タッチ検出部112にタッチパネルを用いる場合のタッチ操作の検出について、図2を参照して後述する。
通信部110は、後述するタッチペン(以下、単にペンともいう)から無線で送信される情報を受信するための装置である。通信法式は、Wi−Fi、又はBluetooth(登録商標)等の公知の規格に準拠した通信方式であっても、独自規格の通信法式であってもよい。また、通信部110は、ネットワーク等の外部との接続を行なうためのNIC(Network Inferface Card)を備え、ネットワークに接続されたコンピュータ等との間で画像データを送受信してもよい。通信部110を介して外部から受信した画像データは、記録部108に記録される。また、ネットワークに接続されたプリンタ等の画像形成装置への印刷指示は、通信部110を介して行なわれる。
タイマ120は、計時処理を実行し、CPU102からの要求を受けて、現在時刻を表す情報(以下、単に現在時刻ともいう)をCPU102に伝送する。また、タイマ120は、CPU102からのリセット要求を受けた場合には、時刻情報をクリア(即ち、現在時刻をゼロに設定)した後、計時処理を再開する。
図1の画像表示装置100は、構成要素が全て近接して配置され、1体に形成されている場合に限定されない。例えば、タッチ検出部112及び表示部114は一体として配置されているが、それ以外の構成要素はタッチ検出部112及び表示部114から離隔して配置されていてもよい。例えば、タッチ検出部112及び表示部114以外の構成要素が、所定のビデオ信号を出力可能な汎用コンピュータであってもよい。その場合、汎用コンピュータから出力されるビデオ信号はケーブル又は無線で表示部114に伝送し、タッチ検出部112からの出力信号はケーブル又は無線で汎用コンピュータに伝送すればよい。
なお、画像表示装置100の各部には、外部から供給される商用電力から変換された所定の電圧で、電力が供給される。
図2は、赤外線遮断検出方式のタッチパネル(タッチ検出部112)を示す。タッチパネルは、長方形の書込面の隣接する2辺にそれぞれ一列に配置された発光ダイオード列(以下、LED列と記す)130、132と、それぞれのLED列130、132に対向させて一列に配置された2つのフォトダイオード列(以下、PD列と記す)140、142とを備えている。LED列130、132の各LEDから赤外線を発光し、この赤外線を対向するPD列140、142の各PDが検出する。図において、LED列130、132の各LEDから赤外線を上向き及び左向きの矢印で示す。
タッチパネルは、例えばマイクロコンピュータ(以下、マイコンという)(CPU、メモリ、及び入出力回路等を含む素子)を備え、各LEDの発光を制御する。各PDは、受光した光の強度に応じた電圧を出力する。PDの出力電圧は、アンプによって増幅される。また、各PD列140、142の複数のPDからは同時に信号が出力されるので、出力信号は一旦バッファに保存された後、PDの配列順序に応じたシリアル信号として出力され、マイコンに伝送される。PD列140から出力されるシリアル信号の順序は、X座標を表す。PD列142から出力されるシリアル信号の順序は、Y座標を表す。
ユーザがタッチペン200でタッチパネル上の1点にタッチすると、タッチペン200のペン先によって赤外線が遮断される。したがって、遮断される前まで、その赤外線を受光していたPDの出力電圧は減少する。タッチされた位置(XY座標)に対応するPDからの信号部分が減少するので、マイコンは、受信した2つのシリアル信号の信号レベルが低下している部分を検出し、タッチされた位置座標を求める。マイコンは、決定した位置座標をCPU102に伝送する。このタッチ位置を検出する処理は、所定の検出周期で繰返されるので、同じ点が検出周期よりも長い時間タッチされていると、同じ座標データが繰返し出力される。どこにもタッチされていなければ、マイコンは位置座標を伝送しない。タッチペン200の代りに、指でタッチ検出部112にタッチしても、同様にタッチされた位置を検出することができる。
上記したタッチされた位置の検出技術は公知であるので、これ以上の説明は繰返さない。また、タッチ検出部112には、赤外線遮断方式以外のタッチパネル(静電容量方式、表面弾性波方式、抵抗膜方式等)を用いてもよい。
図3を参照して、タッチペン200は、CPU202、ROM204、RAM206、送信部208、スイッチ210、加速度センサ212、タイマ214、及びバス216を備えている。CPU102は、タッチペン200全体を制御する。
ROM204は不揮発性の記憶装置であり、タッチペン200の動作を制御するために必要なプログラム及びデータ、並びにタッチペン200のIDを記憶している。IDは、タッチペン200に一意に付与されたデータである。RAM206は、通電が遮断された場合にデータが消去される揮発性の記憶装置である。CPU202は、バス216を介してROM204からプログラムをRAM206上に読出して、RAM206の一部を作業領域としてプログラムを実行する。CPU202は、ROM204に格納されているプログラムにしたがってタッチペン200を構成する各部の制御を行なう。
バス216には、CPU202、ROM204、RAM206、送信部208、及びタイマ214が接続されている。各部間のデータ(制御情報を含む)交換は、バス216を介して行なわれる。
図4を参照して、スイッチ210は、タッチペン200の先端付近に配置され、先端部218が押された場合に、一時的にオンするモーメンタリスイッチである。例えば、画像表示装置100のタッチ検出部112に、タッチペン200の先端部218が押し付けられるとスイッチ210がオンし、画像表示装置100のタッチ検出部112から、タッチペン200の先端部218が離されるとスイッチ210はオフする。スイッチ210がオンした場合、スイッチ210から所定の信号がCPU202に入力される。例えば、スイッチ210がオンになれば、スイッチ210からの出力信号はローレベルからハイレベルに変化する。これによって、CPU202は、スイッチ210のオン又はオフを検知することができる。
加速度センサ212は、加速度を検出するためのセンサであり、タッチペン200の内部に固定されている。したがって、加速度センサ212は、タッチペン200が外力によりその位置が変位している状態を検出することができる。例えば、ユーザが、静止した状態のタッチペン200を手に持ったときに、加速度センサ212は加速度を検知し、ハイレベルの信号を出力する。ユーザがタッチペン200を置き、タッチペン200が静止すれば、加速度センサ212からの信号はローレベルに戻る。これによって、CPU202は、ユーザがタッチペン200を持って使用しようとしている状態、又は使用している状態を検知することができる。
タイマ214は、計時処理を実行し、CPU202からの要求を受けて、現在時刻をCPU202に伝送する。また、タイマ214は、CPU202からのリセット要求を受けた場合には、時刻情報をクリアした後、計時処理を再開する。
送信部208は、画像表示装置100に無線で情報を送信するための装置である。CPU202は、送信部208を制御して、タッチペン200に関する情報を送信する。送信される情報には、タッチペン200のID、CPU202が検出したスイッチ210のオンを表す情報、及び、加速度センサ212によって加速度が検出されたことを表す情報が含まれる。
なお、タッチペン200は、各部への電力供給を行なうための電源(図示せず)を収容している。電源は、例えば電池である。
本実施の形態においては、画像表示装置100は、タッチペン200によるタッチ検出部112へのタッチ操作に応じて、表示部114に表示するユーザインターフェイスを変化させる。以下、この動作に関して説明する。
図5を参照して、タッチペン200の動作、即ち、ユーザにより操作されるタッチペン200の状態に関する情報を送信するためのプログラムについて説明する。本プログラムは、タッチペン200に電力が供給された時点で起動され、電力が供給されている間、実行される。
ステップ400において、CPU202は、加速度センサ212により加速度が検出されているか否かを判定する。具体的には、CPU202は、加速度センサ212から入力される信号のレベルがハイレベルである場合、加速度が検出されていると判定する。加速度が検出されていると判定された場合、制御はステップ402に移行する。そうでなければ、制御はステップ414に移行する。
ステップ402において、CPU202は、タイマ214をリセットする。
ステップ404において、CPU202は、送信部208からIDを送信する処理を停止中であるか否かを判定する。IDの送信は後述するステップで開始されるので、最初にステップ404が実行された場合には、IDの送信を停止中であると判定される。IDの送信を停止中であると判定された場合、制御はステップ406に移行する。そうでなければ(IDを送信中)、制御はステップ408に移行する。
ステップ406において、CPU202は、ROM204からIDを読出し、送信部208を制御して、画像表示装置100へのIDの送信を開始する。送信部208は、CPU202から送信の停止の指示を受けるまで、送信を継続する。
ステップ408において、CPU202は、スイッチ210がオンされているか否かを判定する。具体的には、CPU202は、スイッチ210から入力される信号のレベルがハイレベルである場合、スイッチ210がオンされていると判定する。スイッチ210がオンであると判定された場合、制御はステップ410に移行する。そうでなければ、即ち、スイッチ210から入力される信号のレベルがローレベル(スイッチ210がオフ)である場合、制御はステップ412に移行する。
ステップ410において、CPU202は、送信部208を制御し、画像表示装置100へのスイッチがオンされていることを表す情報(以下、スイッチオン情報ともいう)の送信を開始する。その後、制御は、ステップ400に戻る。スイッチオン情報は、例えば“1”である。
ステップ412において、CPU202は、送信部208を制御し、画像表示装置100へのスイッチオン情報の送信を停止する。その後、制御は、ステップ400に戻る。
ステップ400で加速度が検出されていないと判定された場合、ステップ414において、CPU202は、送信部208からIDを送信する処理を実行中であるか否かを判定する。IDを送信中であると判定された場合、制御はステップ416に移行する。そうでなければ、制御はステップ400に戻る。
ステップ416において、CPU202は、ステップ400と同様に、加速度センサ212により加速度が検出されているか否かを判定する。加速度が検出されていると判定された場合、制御はステップ408に移行する。そうでなければ、制御はステップ418に移行する。
ステップ418において、CPU202は、タイマ214から現在のタイマの値(ステップ402でリセットされてからの現在時刻)を取得する。
ステップ420において、CPU202は、加速度を検出しない状態のままタイムアップしたか否かを判定する。具体的には、CPU202は、ステップ418で取得した値が所定の値T0よりも大きいか否かを判定する。所定の値T0は、例えばROM204に予め記憶されている。ステップ418で取得した値が所定の値T0よりも大きい場合、タイムアップと判定され、制御はステップ422に移行する。そうでなければ、制御はステップ416に戻る。
ステップ422において、CPU202は、送信部208を制御して、画像表示装置100へのIDの送信を停止する。その後、制御はステップ400に戻る。
以上により、タッチペン200が静止している最初の状態では、ID信号は送信されない。ユーザがタッチペン200を手に持つと、IDの送信が開始される(ステップ40)。IDの送信が開始された状態で、ユーザがタッチペン200の先端部218で、画像表示装置100のタッチ検出部112にタッチする操作を行なうと、スイッチオン情報が送信される(ステップ410)。ユーザが、画像表示装置100のタッチ検出部112からタッチペン200の先端部218を離すと、スイッチオン情報の送信が停止する(ステップ412)。
ユーザがタッチペン200を置くと、加速度が検出されなくなるが、加速度が検出されないままでも、所定の期間T0はIDの送信が維持される。即ち、最後に加速度が検出され、タイマ214がリセットされた後、加速度が検出されないままで、所定の期間T0が経過すると(ステップ416〜ステップ420の繰返し)、IDの送信が停止される(ステップ422)。
ここで、送信部208から送信されID及びスイッチオン情報の送信は、個別に送信されてもよいが、所定の規則にしたがって構造化されたデータ(パケットデータ)として送信されてもよい。例えば、1つのパケット中に、IDをセットする領域とスイッチオン情報をセットする領域とを設け、各領域を、固定サイズ及び固定位置に設定しておけばよい。例えば、IDを8ビット、スイッチオン情報を1ビットとして、ID、スイッチ情報の順に連続する9ビットの領域を設けることができる。
図6〜図9を参照して、上記のように動作するタッチペン200によるタッチ検出部112へのタッチ操作に応じて、表示部114に表示するユーザインターフェイスを変化させるための、画像表示装置100において実行されるプログラムの制御構造に関して説明する。
ステップ500において、CPU102は、通信部110を介して、タッチペン200のIDを受信したか否かを判定する。受信したと判定された場合、制御はステップ502に移行する。そうでなければ、制御はステップ516に移行する。
ステップ502において、CPU102は、表示部114にインジケータを表示中であるか否かを判定する。インジケータは、後述するステップで表示されるので、最初にステップ502が実行されるときには、インジケータは表示されていない。表示中であると判定された場合、制御はステップ508に移行する。そうでなければ(インジケータは表示されていない場合)、制御はステップ504に移行する。
ステップ504において、CPU102は、インジケータに関する情報(以下、インジケータ情報ともいう)を記録部108から読出し、RAM106の所定領域に記憶する。記録部108には、予めインジケータ情報が記憶されている。
ステップ506において、CPU102は、ステップ504で読出したインジケータ情報を用いて、表示部114にインジケータを表示する。例えば、インジケータ情報は、位置情報(位置座標)と、タッチペンによる操作に割当てられた設定の情報(以下、タッチペンの設定情報ともいう)と、インジケータの画像データとを含む。位置情報は、表示部114上にインジケータを表示する位置を決定するために使用される。タッチペンの設定情報は、タッチペンで操作を行なった場合に、指定される操作内容を決定するための情報であり、例えば、描画操作に関する線の色及び太さ等の情報である。
CPU102は、インジケータ情報に含まれる位置情報から、インジケータの画像データを書込むVRAM上の領域を決定し、決定された領域にインジケータの画像データを書込む。インジケータの画像データが書込まれた画面データは、表示制御部116により読出されて、画像として表示部114に表示される。例えば、図9に示すように、インジケータ300が画像表示装置100のタッチパネルディスプレイ124(表示部114)に表示される。
なお、インジケータは、タッチペン200の設定状態が分かるように表示されることが好ましい。例えば、タッチペン200によって描画される色を複数の色の中から選択可能である場合には、設定された色で、インジケータ内の図形が表示されるようにすることが好ましい。例えば、ペンの色のデフォルトが赤であれば、赤色の図形を含むインジケータが表示される。その場合、インジケータ情報は、設定可能な色に対応する複数のインジケータの画像データを含むようにしても、1つのグラフィックデータと複数の色情報とを含むようにしてもよい。
ステップ508において、CPU102は、タッチパネルディスプレイ124がタッチされているか否かを判定する。タッチされていると判定された場合、CPU102は、タッチされている位置の情報(位置座標)を、RAM106の所定領域に記憶し、制御はステップ510に移行する。そうでなければ、制御はステップ514に移行する。RAM106に記憶したこの位置情報は、再度ステップ508が実行されるまで保持される。
ステップ510において、CPU102は、タッチペン200のスイッチ210がオンしたことを検出したか否かを判定する。具体的には、CPU102は、通信部110を介して、タッチペン200からスイッチオン情報を受信したか否かを判定する。スイッチオン情報が受信された場合、スイッチオンが検出されたと判定され、制御はステップ512に移行する。そうでなければ、制御は514に移行する。
ステップ512において、CPU102は、タッチペン200を用いたタッチ操作に応じた処理を実行する。ステップ512の処理(ペンタッチ処理)は、図7に具体的に示されている。
図7のステップ540において、CPU102は、ステップ510で検出されたタッチ位置が、表示部114に表示されているインジケータ300の領域内であるか否かを判定する。
ステップ542において、CPU102は、タッチペン200がタッチパネルディスプレイ124(タッチ検出部112)から離された状態(以下、ペンアップ状態ともいう)であるか否かを判定する。ペンアップ状態になるまで、ステップ542が繰返される。なお、このことは、インジケータ300に対する長押しには、何も処理が割当てられていないことを意味する。
ステップ544において、CPU102は、インジケータ300の近傍に、タッチペン200に対する設定を行なうためのメニューを表示する。タッチパネルディスプレイ124に表示されているインジケータ300の周りに、例えば、図10に示すように、9つのアイコン310〜324から構成されるメニューを表示する。その後、制御は図6のステップ514に移行する。
図10において、アイコン310〜314は、タッチペン200を用いて描画する場合の色を設定するためのアイコンである。アイコン316は、タッチペン200を消しゴムとして使用することを指定するためのアイコンであり、アイコン316がタッチされた後、タッチペン200でタッチパネルディスプレイ124がタッチされると、タッチされた位置に描画された線が消去される。アイコン318は、表示部114に表示されている図形等のオブジェクトを選択するためのアイコンである。アイコン320は、1つ前に実行された処理を元に戻すことを指示するためのアイコンである。アイコン324は、アイコン320が選択されて、1つ前に取り消した処理を再度実行することを指示するためのアイコンである。アイコン322は、オブジェクトを操作(拡大、縮小、移動)するモード(以下、ビューモードともいう)を指定するためのアイコンである。
ステップ510で検出されたタッチ位置がインジケータ300以外の領域であれば、ステップ546において、CPU102は、メニューが表示中であるか否かを判定する。メニュー表示中であると判定された場合、制御はステップ548に移行する。そうでなければ、制御はステップ554に移行する。
ステップ548において、CPU102は、タッチ位置がメニュー領域内であるか否かを判定する。具体的には、CPU102は、タッチ位置が、図10のアイコン310〜324の何れかのアイコン上であるか否かを判定する。メニュー領域がタッチされたと判定された場合、制御はステップ550に移行する。そうでなければ、制御はステップ554に移行する。
ステップ550において、CPU102は、ステップ542と同様に、タッチペン200がアップされたか否かを判定する。ペンアップ状態と判定された場合、制御はステップ552に移行する。そうでなければ、ステップ550が繰返される。
ステップ552において、CPU102は、表示されているメニューを消去し、タッチペンの設定を、タッチされた位置に表示されていたアイコンに対応する設置に変更する。具体的には、RAM106に記憶されているインジケータ情報に含まれるタッチペン200の設定データを変更する。例えば、図10のようにインジケータ300の周りにメニューが表示されていた状態から、図9のようにインジケータ300だけが表示された状態に戻る。その後、制御は図6のステップ514に移行する。
ステップ546でメニュー表示中でないと判定された場合、ステップ554において、CPU102は、タッチペン200を用いた描画処理を実行する。ステップ554の処理(ペン描画処理)は、図8に具体的に示されている。
図8のステップ600において、CPU102は、タイマ120をリセットする。この処理は、後述する長押しを判定するための基準時刻を設定する処理である。
ステップ602において、CPU102は、タッチされている位置情報を取得する。CPU102は、取得した位置情報をRAM106の所定領域に記憶する。後述するように、ステップ602は繰返し実行される可能性があり、少なくとも前回取得した位置情報を保持する。
ステップ604において、CPU102は、ステップ602で取得した位置が、前回取得したタッチ位置から変化したか否かを判定する。変化したと判定された場合、制御はステップ606に移行する。そうでなければ、制御はステップ618に移行する。
ステップ606において、CPU102は、表示部114の表示画面からメニューを消去する。メニューが表示されていなければ、表示画面は変わらない。
ステップ608において、CPU102は、画像表示装置100が描画モードに設定されているか否かを判定する。描画モードに設定されていると判定された場合、制御はステップ610に移行する、そうでなければ制御はステップ616に移行する。
描画モードは、タッチペン200でタッチパネルディスプレイ124(タッチ検出部112)にタッチし、タッチ位置を変化させることに応じて、タッチ位置の軌跡に対応する線が表示部114に描画されるモードである。例えば、タッチペン200に対して、アイコン310〜316に対応する設定がなされていれば、画像表示装置100は描画モードに設定されている。画像表示装置100には、描画モード以外に、上記したビューモード等がある。
ステップ610において、CPU102は、タッチペン200の設定にしたがって、描画処理を実行する。例えば、アイコン310〜314の何れかが選択された状態で、タッチ位置が移動した場合、対応する色の線が描画される。
このように、ステップ606〜610により、図11のように、タッチペン200による描画中には、メニューが消去され、インジケータ300のみが表示される。なお、ステップ610で実行される描画処理には、線を描画する処理以外の処理も含まれる。例えば、アイコン316が選択された状態で、タッチ位置が変化すると、タッチされた位置に描画されていた線が消去される。
一方、描画モードでなければ、ステップ616において、CPU102は、該当する処理を実行する。例えば、ビューモードにおいて、タッチペン200のタッチ位置を移動させると、選択されているオブジェクトが移動する。その後、制御はステップ624に移行する。
ステップ612において、CPU102は、タッチペン200がアップされたか否かを判定する。ペンアップ状態と判定された場合、制御はステップ614に移行する。そうでなければ、制御はステップ602に戻る。
ステップ614において、CPU102は、最後のタッチ位置の近くにインジケータ300を移動させる。具体的には、CPU102は、最後のタッチ位置情報をRAM106から読出し、表示中のインジケータ300を一旦消去した後、最後のタッチ位置から所定範囲内の位置にインジケータ300を再表示する(インジケータの移動)。例えば、図11の状態でタッチペン200の先端部218をタッチパネルディスプレイ124から離すと、図12のように、インジケータ300は描画された線の終端の近くに表示される(移動する)。図12において、アップされたタッチペンを破線で示している。
このとき、新たに表示するインジケータを、描画された線の終端(最後のタッチ位置)に重ならないように表示することが好ましい。また、メニューが表示された場合に、メニューが描画された線の終端(最後のタッチ位置)に重ならないように、新たなインジケータを表示することも好ましい。したがって、好ましくは、インジケータを、描画された線の終端から、少なくともインジケータの大きさだけ離れた位置に表示する。より好ましくは、描画された線の終端から、少なくともメニュー全体(例えば、アイコン310〜アイコン324を包含する領域の大きさ)の大きさだけ離れた位置にインジケータを表示する。
なお、インジケータ及びメニューを表示する場合、描画されている線に対応するVRAM118の上にそのまま上書きすると、元の画像データが損傷される。これを回避するには、予め、インジケータ及びメニューと重なる領域のVRAM118上のデータを、一旦RAM106の所定領域にコピーした後、インジケータ及び/又はメニューの画像データをVRAM118に書込む。インジケータ及び/又はメニューを消去する場合には、RAM106にコピーしたデータをVRAM118上の元の位置に書込む。
ステップ604での判定の結果、タッチ位置が変化していなければ、ステップ618において、CPU102は、最初にタッチされた位置(図6のステップ510でRAM106に記憶された位置情報に対応)での長押しであるか否を判定する。具体的には、CPU102は、タイマ120から現在のタイマの値(ステップ600でリセットされてからの現在時間)を取得し、所定の値T1よりも大きい(所定時間T1が経過した)か否かを判定する。所定時間T1は、予めROM104に記憶されている。所定時間T1が経過したと判定された場合、さらに、CPU102は、ステップ510でRAM106に記憶された位置情報と、現在のタッチ位置情報とが同じあるか否かを判定する。同じであると判定された場合、即ち、最初にタッチされた位置で長押しされていると判定された場合、制御はステップ620に移行する。そうでなければ、即ち、所定時間T1が経過していない場合、又は、最初にタッチされた位置と異なる位置で長押しされている場合には、制御はステップ624に移行する。これによって、ユーザが、タッチペン200でタッチパネルディスプレイ124にタッチしたままタッチ位置を変化させて線を描画している途中で、タッチペン200を止めた場合に、長押しと判定されて、後述するようにインジケータ300が移動してしまうことを回避することができる(描画の途中で長押ししても画面は変化しない)。
ステップ620において、CPU102は、長押しされた位置にインジケータ300を移動させる。具体的には、CPU102は、最後のタッチ位置情報をRAM106から読出し、表示されているインジケータ300を一旦消去した後、最後のタッチ位置(長押しされた位置)にインジケータ300を再表示する。
ステップ622において、CPU102は、タッチペン200がアップされたか否かを判定する。ペンアップ状態と判定された場合、ペン描画処理を終了する(制御は図6のステップ514に移行する)。そうでなければ、ステップ622が繰返される。
ステップ624において、CPU102は、タッチペン200がアップされたか否かを判定する。ペンアップ状態と判定された場合、ペン描画処理を終了する(制御は図6のステップ514に移行する)。そうでなければ、制御はステップ602に戻る。
これによって、最初にタッチされた位置でタッチされていれば、長押しと判定されるまで、タッチペン200がアップされたか否かの判定を繰返し、長押しと判定される前にタッチペン200がアップされると、ペン描画処理(ステップ554)から抜ける。また、上記したように、所定時間T1以上連続して押されていても、一旦タッチ位置を変化させた後(例えば、線を描画中)であれば、インジケータ300を移動させるための長押しとは判定されない。
図6に戻り、ペンタッチ処理(ステップ512)の後、ステップ514において、CPU102は、終了の指示を受けているか否かを判定する。終了の指示を受けたと判定された場合、CPU102は本プログラムを終了する。例えば、終了ボタンが押された場合、本プログラムを終了する。そうでなければ処理はステップ500に戻る。
一方、ステップ500の判定結果がNO(IDを受信していない状態)であれば、ステップ516において、CPU102は、表示部114にインジケータを表示中であるか否かを判定する。表示中であると判定された場合、制御はステップ518に移行する。そうでなければ(インジケータは表示されていない場合)、制御はステップ500に戻る。
ステップ518において、CPU102は、表示されているインジケータ300を消去する。このとき、RAM106に記憶されているインジケータ情報は、図7のステップ552で変更されていても、維持される。
以上により、ユーザが、タッチペン200を手に持った場合、タッチペン200からIDが送信され(図5のステップ406)、画像表示装置100はIDを受信し(図6のステップ500の判定結果がYES)、インジケータ300を表示する(ステップ506)。その後、ユーザがタッチペン200でタッチパネルディスプレイ124にタッチすると(ステップ510の判定結果がYES)、タッチ位置に応じて、画像表示装置100の画面が変化する。
即ち、インジケータ300の上でタッチされると(図7のステップ540の判定結果がYES)、メニュー(アイコン310〜324)が表示される(ステップ544)。メニューが表示された状態で、何れかの項目(アイコン)がタッチされると(ステップ548の判定結果がYES)、選択された項目に応じて、RAM106上のインジケータ情報に含まれるタッチペン200の設定情報が変更される(ステップ552)。
インジケータ及びメニュー以外の領域がタッチされた場合には、タッチされた後のタッチペン200の操作に応じて、画像表示装置100の画面が変化する。即ち、タッチされたままタッチ位置が変化すると、モードに応じた処理が実行される。例えば、描画モードであれば、タッチペン200の設定に応じた色の線が描画され(図8のステップ610)、ビューモードであれば、例えば、選択されているオブジェクトが移動する(ステップ616)。描画中、インジケータ300は表示されているが、メニューは消去され(ステップ606)、タッチペンがタッチパネルディスプレイ124から離されると、離された位置の近くにインジケータ300が移動する(ステップ614)。なお、描画以外のモードの場合には、タッチペンがアップされても(ステップ616に続いて実行されるステップ624での判定結果がYES)、インジケータ300は移動しない。
タッチされた位置を変化させずに長押しされた場合(ステップ618の判定結果がYES)、タッチされた位置にインジケータ300が移動する(ステップ620)。
ユーザが、タッチペン200でタッチパネルディスプレイ124にタッチしていなくても、タッチペン200を手に持っていれば、加速度が検出されてIDが送信されるので、画像表示装置100はIDを受信して、インジケータ300の表示を維持し、上記の処理を実行する。ユーザが、タッチペン200をどこか安定した場所に置くと、所定の時間(T0)の間はタッチペン200からIDが送信されるが、所定の時間(T0)経過後は、IDの送信は停止される(図5のステップ422)ので、インジケータ300は消去される(図6のステップ518)。
一旦消去されたインジケータは、タッチペン200からIDが送信されると、再度表示される。再表示されるインジケータは、本プログラムが実行されて最初にインジケータが表示される場合と同様に、デフォルト位置にデフォルトの設定で表示することも、消去される直前の位置に、消去される直前の設定で表示することもできる。消去される直前の状態で、インジケータを再表示するには、例えば、図6のステップ518において、インジケータを消去するときに、タッチペンの設定をRAM106の所定領域に記憶し、ステップ506で再表示するときに、RAM106に記憶した設定を用いてインジケータを表示すればよい。
このように、画像表示装置100は、ユーザがタッチペン200を用いてタッチ操作を行なう場合に、容易に操作が可能なユーザインターフェイスを提供することができる。
図5〜図8に示したプログラムは、種々変更されて実行され得る。
上記では、タッチペン200は、加速度センサ212を備え、加速度が検出されるとIDを送信する場合を説明したが、これに限定されない。ユーザがタッチペンを持っていることを検出できるセンサであればよく、タッチペンの表面に静電容量センサ等を設け、ユーザがセンサに触れている間、ID信号を送信するようにしてもよい。
また、タッチペンの側面又は後端部等に、別途、ユーザが操作可能なスイッチを備え、スイッチがONされている間、ID信号を送信するようにしてもよい。このスイッチは、スイッチ210と同様にモーメンタリスイッチであっても、ON又はOFF状態にロックされるスイッチであってもよい。モーメンタリスイッチを用いる場合には、ユーザがタッチペンを持ってタッチ操作を行なう間、手によって自然にスイッチが押される位置にスイッチを配置することが好ましい。
また、上記ではIDを送信する場合を説明したが、これに限定されない。タッチペンが使用されようとしていることを表す所定のデータを送信すればよい。
メニューの表示方法は、図10のようにインジケータの周りに表示する方法に限定されない。メニューは、インジケータの近くに表示されればよく、メニューの各項目(アイコン)をどのように配置するかは任意である。
また、メニューの各項目は、図10に示したものに限定されない。タッチペンでのタッチ操作により画像表示装置100に指示することができる項目であればよく、例えば、記録部108におけるファイル操作(ファイルのオープン、クローズ、又は保存等の操作)を指示するためのアイコン、又は、表示部114に表示されている画像の印刷を指示するためのアイコン等を表示してもよい。
上記では、タッチペンが加速度を検出しなくなった後、所定の時間T0の間、IDを送信する場合を説明したが、これに限定されない。タッチペンが加速度を検出しなくなれば直ちにIDの送信を停止してもよい。その場合、画像表示装置100は、IDを受信しなくなった後、直ちにインジケータを消去する。また、直ちにインジケータを消去せずに、画像表示装置100が、タイマ120を用いて、所定の時間が経過するまでインジケータの表示を維持するようにしてもよい。
上記では、ステップ518においてインジケータを消去する場合、RAM106上のインジケータ情報を維持する場合を説明したが、RAM106上のインジケータ情報を消去してもよい。その場合、ステップ506においてインジケータが表示される場合、常にデフォルト位置にデフォルト設定で表示される。
上記では、描画中はメニューが消去されるが、インジケータは表示されたままであるが、これに限定されない。描画中、インジケータをも消去してもよい。
上記では、描画後にタッチペンがアップされた位置の近くにインジケータを移動する場合を説明したが、これに限定されない。描画モード以外のモード(ビューモード等)においても、タッチペンによるタッチ操作が終わったときに、タッチペンがアップされた位置の近くにインジケータを移動させてもよい。
上記では、インジケータの表示中に、タッチペンで長押しした場合(図8のステップ618の判定結果がYES)、タッチ位置にインジケータを移動させる場合を説明したが、インジケータを移動させる操作は長押しに限定されない。例えば、インジケータの表示中に、タッチペンでダブルタップした場合に、タッチ位置にインジケータを移動させてもよい。また、図8のステップ620でインジケータを移動させた後、タッチされたままタッチ位置が変化した場合、変位に応じてインジケータを移動させてもよい。
上記では、表示されているインジケータの上での長押しに対して、特別な処理は割当てられていない(図7のステップ542でペンアップを検出するまでの時間は考慮されない)が、インジケータの上で長押しされた後、タッチされたままタッチ位置が変化した場合、変位に応じてインジケータを移動させてもよい。
(第2の実施の形態)
第1の実施の形態においては、1つのタッチペンの状態に応じて画像表示装置の画面(ユーザインターフェイス)が変化するのに対して、第2の実施の形態においては、複数のタッチペンの各々の状態に応じて画像表示装置の画面が変化する。
本実施の形態に係る画像表示装置は、第1の実施の形態に係る画像表示装置100(図1及び図2)と同様に構成されている。また、本実施の形態に係る複数のタッチペンの各々は、第1の実施の形態に係るタッチペン200(図3及び図4)と同様に構成されている。但し、各タッチペンのROMに記憶されているIDは相互に異なる。以下においては、図1〜図4を参照する。
各タッチペン200において実行されるプログラムは、図5と同様である。但し、ステップ406において、ROM204から読出されるIDは、タッチペン毎に異なる。また、ステップ410でスイッチオン情報を送信する場合、IDとスイッチオン情報とを1組として送信する。例えば、1つの送信パケットにIDとスイッチオン情報とを含める。
本実施の形態では、画像表示装置100において、図13に示すプログラムが実行される。ここでは、タッチペン200(図2)を使用する場合、予め画像表示装置100(図1)に各タッチペン200に関する情報を、所定の操作により登録するとする。例えば、各タッチペン200のIDを記録部108に記憶する。
図13のフローチャートが、図6のフローチャートと異なる点は、新たにステップ700〜706が追加され、ステップ516及びステップ518が、ステップ704の後に実行されるように配置されている点である。図13及び図6において、同じ参照番号が付与されたステップにおける処理は、基本的に同じである。以下においては、図7及び図8を参照する。
ステップ500において、CPU102は、IDを受信したか否かを判定する。CPU102は、受信したIDをRAM106の所定領域に記憶する。ここでは、複数のタッチペンが各IDを同時に送信することがあるので、受信し得るIDは1又は複数である。受信したと判定された場合、制御はステップ700に移行する。そうでなければ、ステップ500が繰返される。
ステップ700において、CPU102は、受信したIDのうち、1つのIDを選択する。以下、選択されたIDをIDiと記す。選択されたIDiに関して、第1の実施の形態で上記したステップ502〜512が実行される。
ステップ506においてインジケータを表示する場合、最初にインジケータが表示される場合には、インジケータはデフォルト位置にデフォルト設定で表示される。既に表示されているインジケータがあれば、重ならないように、表示位置を変更して新たなインジケータを表示することが好ましい。例えば、図14のように、インジケータ300が既に表示されていれば、インジケータ300に重ならないように、新たなインジケータ340を表示する。しかし、後述するように、各インジケータを移動させることができるので、同じデフォルト位置に重ねて表示してもよい。
ステップ512のペンタッチ処理においては、選択されたIDiに対応するタッチペン、インジケータ及びメニューのみを対象として、各処理が実行される。即ち、IDiに対応するインジケータ及びメニューの領域に、IDiに対応するタッチペンでタッチされたか否かを判定する。例えば、IDi以外のIDに対応するインジケータ及びメニューが表示されており、それらの領域が、IDiに対応するタッチペンでタッチされたとしても、図7のステップ540及びステップ548ではそれぞれ、インジケータ及びメニュー以外の領域でのタッチと判定され、ステップ554のペン描画処理が実行される。
ステップ554のペン描画処理(図8参照)においても、IDiに対応するタッチペンの状態(スイッチ210のオン/オフ)のみを対象として、処理が実行される。図8のステップ614及びステップ620においては、IDiのインジケータのみを移動させ、それ以外のインジケータは移動させない。例えば、図14のように、2つのインジケータ300及び340が表示されている状態で、インジケータ340に対応するIDを有するタッチペンで描画した後(図8のステップ610)、タッチペンをアップすると(ステップ614)、図15に示すようにインジケータ340が移動する。他のタッチペンに対応するインジケータ300は元の位置に表示されたままである。
なお、ステップ606では、IDiに対応するインジケータのメニューのみを消去してもよいが、描画時に支障を生じないようにするためには、表示されている全てのインジケータのメニューを消去することが好ましい。
ステップ702において、CPU102は、ステップ500で受信した全てのIDに関して、ステップ502〜512が完了したか否かを判定する。完了したと判定された場合、制御はステップ704に移行する。そうでなければ、制御はステップ700に戻り、CPU102は、重複しないように、受信したIDを1つ選択する。その後、ステップ502〜512が実行される。
ステップ704において、CPU102は、登録されているID(記録部108に記憶されているID)のうち、ステップ500で受信しなかったIDを1つ選択する。
選択されたIDに関して、第1の実施の形態で上記したステップ516及び518が実行される。
ステップ518において、インジケータを消去する場合、RAM106上のインジケータ情報は消去せずに、本プログラムが終了するまで維持する。したがって、一旦消去されたインジケータに対応するIDがステップ500で受信された場合、ステップ506においては、受信したIDに対応するRAM106上のインジケータ情報(消去されたときのインジケータ情報)を用いてインジケータを表示する。
ステップ706において、CPU102は、ステップ500で受信しなかった全てのIDに関して、ステップ516及び518が完了したか否かを判定する。完了したと判定された場合、制御はステップ514に移行し、CPU102は、終了の指示を受けているか否かを判定する。判定結果に応じて、本プログラムが終了されるか、又は、制御がステップ500に戻る。そうでなければ(完了していない場合)、制御はステップ704に戻り、CPU102は、重複しないように、受信しなかったIDを1つ選択する。その後、ステップ516及び518が実行される。
以上により、複数のタッチペンが使用される場合にも、画像表示装置100は、各タッチペンを使用するユーザに対して、第1の実施の形態と同様に、操作が容易なユーザインターフェイスを提供することができる。
図13に示したプログラムは、種々変更されて実行され得る。
上記では、記録部108に各タッチペンのIDが記憶されている場合を説明したが、IDの代りにIDに一意に対応するデータを記憶しておいてもよい。また、受信したIDに関してのみ処理を実行する場合には、IDを受信した順に通し番号を割当てて、そのIDを受信している間、割当てられた通し番号に対応させて、タッチ操作により変化するインジケータ情報を管理すればよい。
上記では、選択されたIDi毎に処理を実行するので、タイマ120は1つでよく、1つのタッチペンでタッチパネルディスプレイ124にタッチしているときに、別のタッチペンでタッチパネルディスプレイ124にタッチしても、後からタッチしたタッチペンの操作は有効にはならない。先にタッチしているタッチペンがアップすれば、後からタッチしたタッチペンの操作は有効になる。
複数のタッチペンによる同時タッチを有効にするには、複数のタイマを備え、各IDに1つのタイマを割当てて、各IDに関する処理をマルチタスクとして並行して実行すればよい。複数のタッチペンが同時にタッチされている状態でも、通常、各タッチペンが最初にタッチされたタイミングはそれぞれ異なるので、タッチペンのスイッチオンのタイミングとタッチ位置情報を取得したタイミングとの関係で、タッチペンとタッチ位置との対応を決定することができる。その後、複数のタッチペンでタッチしたまま、タッチペンを移動させた場合には、変位が小さいタッチ位置を同じタッチペンによるタッチ位置(軌跡)とすることで、タッチペンとそのタッチ位置との対応を維持することができる。
上記では、タッチペンがスイッチオン情報とIDとを同時に送信する場合を説明したが、これに限定されない。ユーザがタッチペンを手に持っている間、そのタッチペンのIDが送信されていれば、タッチペンは、スイッチオン情報の送信とIDの送信とを、別の処理として実行してもよい。例えば、スイッチオン情報とIDとを、それぞれ別のパケットで送信してもよい。画像表示装置100は、スイッチのオンにより送信されるスイッチオン情報を受信したときに、その直前に受信したIDとスイッチオン情報とを対応させる。これによって、画像表示装置100は、タッチパネルディスプレイにタッチしたタッチペン(ID)を特定することができ、その後のタッチ操作を、特定されたIDに関する操作であるとして、該当する処理を行なうことができる。
(第3の実施の形態)
第1の実施の形態においては、タッチペンの状態に応じて画像表示装置の画面(ユーザインターフェイス)が変化するが、第3の実施の形態においては、タッチペンの状態に加えて、指でのタッチ操作によっても画像表示装置の画面が変化する。
本実施の形態に係る画像表示装置及びタッチペンは、第1の実施の形態に係る画像表示装置100(図1及び図2)及びタッチペン200(図3及び図4)と同様に構成されている。以下においては、図1〜図4を参照する。
本実施の形態では、タッチペン200において実行されるプログラムは、図5と同様である。画像表示装置100においては、図16〜図18に示すプログラムが実行される。図16〜図18はそれぞれ図6〜図8に対応する。
図16のフローチャートが、図6のフローチャートと異なる点は、新たにステップ800〜ステップ818が追加されている点だけである。図16及び図6において、同じ参照番号が付与されたステップにおける処理は、基本的に同じである。
図16のステップ500においてタッチペン200のIDが受信された場合、第1の実施の形態と同様に、ステップ502〜506の処理が実行され、タッチペン200に対応するインジケータが表示される。ステップ500においてIDが受信されなかった場合、ステップ516及び518が実行され、タッチペン200に対応するインジケータが表示されていれば、消去される。
ステップ508においてタッチパネルディスプレイ124へのタッチが検出されて、ステップ510が実行されたけれども、タッチペン200のスイッチオン情報が受信されていなければ、ステップ800において、CPU102は、指による操作に関するインジケータ(以下、指インジケータともいう)が表示されているか否かを判定する。指インジケータの表示に関しては後述する。指インジケータが表示されていると判定された場合、制御はステップ814に移行する。そうでなければ、制御はステップ802に移行する。
ステップ802において、CPU102は、タイマ120をリセットする。これは、後述する指による長押しを判定するための処理である。
ステップ804において、CPU102は、タッチ位置が変化しないまま、所定時間が経過した(長押し)か否かを判定する。具体的には、CPU102は、タイマ120から現在のタイマの値(ステップ802でリセットされてからの現在時刻)を取得し、その値が所定の値T1よりも大きい(所定時間T1が経過した)か否かを判定する。所定時間T1が経過したと判定された場合、制御はステップ808に移行する。そうでなければ、制御はステップ806に移行する。
ステップ806において、CPU102は、タッチを検出しなくなった、又はタッチ位置が変位したか否かを判定する。タッチが検出されなくなったことは、指がタッチパネルディスプレイ124から離れたことを意味する。指が離れた又はタッチ位置が変化したと判定された場合、制御はステップ816に移行する。そうでなければ(指が離れず、且つタッチ位置が変化しない場合)、制御はステップ804に戻る。
ステップ808において、CPU102は、ステップ504と同様に、記録部108に記憶されているデフォルトのインジケータ情報を読出し、RAM106の所定領域に記憶する。このとき、RAM106にタッチペン200に対応するインジケータ情報が記憶されていれば、そのインジケータ情報が維持されるように記憶する。RAM106上のタッチペン200のインジケータ情報及び指のインジケータ情報(以下、指インジケータ情報ともいう)は、タッチ操作によって変化し得るので、別の情報として管理される。
ステップ810において、CPU102は、RAM106上の指インジケータ情報を用いて、表示部114に指インジケータを表示する。例えば、図19に示すように、指350で長押しされている位置に指インジケータ352が表示される。
ステップ812において、CPU102は、タイマ120をリセットする。これは、後述する指インジケータ352を消去するタイミングを決定するための基準を設定する処理である。その後、制御はステップ816に移行する。
このように、ステップ802〜810によって、指で長押しされた場合、指インジケータ352が表示される。
指インジケータ352が表示中であれば、ステップ814において、CPU102は、指によるタッチ操作に応じた処理(メニューの表示、メニューの消去、及び描画処理等)を実行する。ステップ814の処理(指タッチ処理)は、図17に具体的に示されている。図17のフローチャートが、図7のフローチャートと異なる点は、図7のステップ542、ステップ550及びステップ554がそれぞれ、ステップ840、ステップ842及びステップ844に変更され、新たにステップ846が追加されている点だけである。図17及び図7において、同じ参照番号が付与されたステップにおける処理は、基本的に同じである。
ステップ814の指タッチ処理においては、指に対応するインジケータ(指インジケータ)及びそのメニューのみを対象として、各処理が実行される。即ち、指インジケータ及びそのメニューの領域に、指でタッチされたか否かを判定する。例えば、タッチペンに対応するインジケータ及びメニューが表示されており、それらの領域が、タッチペンのスイッチオン信号を受信せずにタッチされたことが検出されたとしても、図17のステップ540及びステップ548ではそれぞれ、指インジケータ及びそのメニュー以外の領域でのタッチと判定され、ステップ844の指描画処理が実行される。なお、ステップ814の指タッチ処理は、ステップ510での判定結果がNOの場合、即ちタッチペン200のスイッチがオフである場合にのみ実行される。
ステップ840及びステップ842においては、CPU102は、タッチを検出しなくなったか否かを判定する。タッチが検出されなくなったことは、指がタッチパネルディスプレイ124(タッチ検出部112)から離れたことを意味する。
ステップ844において、CPU102は、指による描画処理を実行する。ステップ844の処理(指描画処理)は、図18に具体的に示されている。図18のフローチャートが、図8のフローチャートと異なる点は、図8のステップ612、ステップ622及びステップ624がそれぞれ、ステップ860、ステップ862及びステップ864に変更されている点だけである。図18及び図8において、同じ参照番号が付与されたステップにおける処理は、基本的に同じである。
ステップ844の指描画処理においては、指によるタッチ状態のみを対象として、各処理(描画処理、長押しの検出、及びインジケータの移動等)が実行される。例えば、ステップ614及びステップ620においては、指インジケータのみを移動させ、タッチペンのインジケータが表示されていても、それは移動させない。例えば、図19のように、2つのインジケータ300及び352が表示されている状態で、指で描画した後(図18のステップ610)、指をアップすると(図18のステップ614)、図20に示すように指インジケータ352のみが移動する。タッチペン200に対応するインジケータ300は元の位置に表示されたままである。
なお、ステップ606では、指インジケータのメニューのみを消去してもよいが、描画時に支障を生じないようにするためには、表示されている全てのインジケータのメニューを消去することが好ましい。
ステップ860〜ステップ864において、CPU102は、ステップ840と同様に、指がタッチパネルディスプレイ124から離れた(指のアップ)ことを検出する。
図17に戻り、ステップ846において、CPU102は、タイマ120をリセットする。ステップ846は、ステップ812と同様に、指インジケータを消去するタイミングを決定するための基準を設定する処理である。その後制御は、図16のステップ816に移行する。
ステップ816において、CPU102は、指インジケータが表示された状態で、指によるタッチ操作がされなくなってから、所定時間が経過したか否かを判定する。具体的には、CPU102は、タイマ120から現在のタイマの値(ステップ812又はステップ846でリセットされてからの現在時刻)を取得し、その値が所定値T3よりも大きい(所定時間T3が経過した)か否かを判定する。所定時間T3が経過したと判定された場合、制御はステップ818に移行する。そうでなければ、制御はステップ514に移行する。
ステップ818において、CPU102は、指インジケータを消去する。このとき、RAM106上の指インジケータ情報は、消去せずに維持する。
以上により、タッチペンが使用される場合だけでなく、指によるタッチ操作に対しても、画像表示装置100は、第1の実施の形態と同様に、操作が容易なユーザインターフェイスを提供することができる。即ち、指で長押しされたことを検出し、指インジケータを表示することができる(図16のステップ804〜ステップ810)。指インジケータが表示されている状態で、指によるタッチ操作が検出された場合、タッチされた位置に応じて、メニューを表示(図17のステップ544)、インジケータ情報を変更(図17のステップ552)、又は、描画処理(図17のステップ844)が実行される。描画処理が終わり、指がアップされると、アップされた位置に指インジケータが移動する(図18のステップ614)。また、指インジケータが表示されている状態で、指で長押しすると、長押しされた位置に指インジケータを移動する(図18のステップ620)。
図16〜図18に示したプログラムは、種々変更されて実行され得る。
上記では、指で長押しした場合に、指インジケータを表示する場合を説明したが、指インジケータを表示する操作は長押しに限定されない。例えば、指でダブルタップした場合に、指インジケータを表示してもよい。
上記では、指でタッチした場合に指インジケータを表示する場合を説明したが、指に限定されない。画像表示装置100が、そのIDを受信することができるタッチペン以外の物で長押しされた場合に、対応するインジケータが表示される。したがって、タッチペンであっても、画像表示装置100がそのIDを受信できないタッチペン、又はIDを送信しないタッチペンであれば、指と同様に長押しにより、対応するインジケータが表示される。
上記では、IDを送信する1つのタッチペンと、指とによってそれぞれのインジケータが表示される場合を説明したが、これに限定されない。複数のタッチペンを扱う第2の実施の形態において、指によるタッチにより指インジケータを表示するようにしてもよい。
画像表示装置100は、大画面の表示装置に限定されない。本発明は、タブレット型の端末装置等、タッチによって描画及び画面操作を行なうことができる表示装置全般に適用することができる。
以上、実施の形態を説明することにより本発明を説明したが、上記した実施の形態は例示であって、本発明は上記した実施の形態に限定されるものではなく、種々変更して実施することができる。
100 画像表示装置
102 CPU
104 ROM
106 RAM
108 記録部
110 通信部
112 タッチ検出部
114 表示部
116 表示制御部
118 VRAM
120 タイマ
122 バス
124 タッチパネルディスプレイ
200 タッチペン
202 CPU
204 ROM
206 RAM
208 送信部
210 スイッチ
212 加速度センサ
214 タイマ
216 バス
218 先端部

Claims (11)

  1. 画像を表示する表示手段と、
    前記表示手段に重畳され、タッチ操作を検出するタッチ検出手段と、
    前記タッチ検出手段により検出されたタッチ操作に割当てられた処理を実行する制御手段とを含み、
    前記表示手段は、
    前記表示手段の描画領域へのタッチ操作を前記タッチ検出手段が検出したことを受けて、タッチ操作に割当てられた処理に関する設定状態を表示する部分画像を表示し、
    前記部分画像へのタッチ操作を、前記タッチ検出手段が検出したことを受けて、タッチされた前記部分画像に対応させて、タッチ操作に割当てられた処理に関するメニュー画像を表示し、
    描画処理の開始を、前記タッチ検出手段が検出したことを受けて、前記メニュー画像を消去し、
    前記描画領域へのタッチ操作に割当てられた処理が前記描画処理であれば、前記部分画像は、前記描画処理により描画されるように設定されている設定色を含み、
    前記設定色を含む前記部分画像がタッチされたことを受けて表示されるメニュー画像は、前記設定色として選択され得る複数の色を含む、画像表示装置。
  2. 自らの被把持状態を検出して被把持状態検出信号を送信するタッチペンと、
    前記タッチペンから送信される前記被把持状態検出信号を受信する受信手段とをさらに含む、請求項1に記載の画像表示装置。
  3. 前記表示手段は、前記メニュー画像へのタッチ操作を、前記タッチ検出手段が検出したことを受けて、タッチされた前記メニュー画像に対応させて、タッチ操作に割当てられた処理を実行する、請求項1に記載の画像表示装置。
  4. 前記表示手段は、前記タッチ検出手段がタッチ操作の終了を検出したことを受けて、前記部分画像の表示位置を変更する、請求項1に記載の画像表示装置。
  5. 前記表示手段は、前記タッチ検出手段が、処理が割当てられていないタッチ操作を検出したことを受けて、前記部分画像の表示位置を変更する、請求項1に記載の画像表示装置。
  6. 前記表示手段は、所定の時間タッチ操作がなかったことを、前記タッチ検出手段が検出したことを受けて、前記部分画像及び前記メニュー画像を消去する、請求項1に記載の画像表示装置。
  7. 前記表示手段は、タッチペンが把持されていない状態を表す前記被把持状態検出信号を前記受信手段が受信してから、所定の時間が経過したことを受けて、前記部分画像及び前記メニュー画像を消去する、請求項2に記載の画像表示装置。
  8. 前記表示手段は、処理が割当てられていないタッチ操作を、前記タッチ検出手段が検出したことを受けて、前記部分画像、又は、前記部分画像及び前記メニュー画像を表示する、請求項1に記載の画像表示装置。
  9. 前記表示手段は、タッチペンが把持された状態を表す前記被把持状態検出信号を前記受信手段が受信したことを受けて、前記部分画像、又は、前記部分画像及び前記メニュー画像を表示する、請求項2に記載の画像表示装置。
  10. 前記処理が割当てられていないタッチ操作は、長押しである、請求項5又は8に記載の画像表示装置。
  11. 画像を表示するステップと、
    表示された前記画像に対するタッチ操作を検出するステップと、
    検出された前記タッチ操作に割当てられた処理を実行するステップと、
    描画領域へのタッチ操作を、前記検出するステップにより検出したことを受けて、タッチ操作に割当てられた処理に関する設定状態を表示する部分画像を表示するステップと、
    前記部分画像へのタッチ操作を、前記検出するステップにより検出したことを受けて、タッチされた前記部分画像に対応させて、タッチ操作に割当てられた処理に関するメニュー画像を表示するステップと、
    描画処理の開始を、前記検出するステップにより検出したことを受けて、前記メニュー画像を消去するステップとを含み、
    前記描画領域へのタッチ操作に割当てられた処理が前記描画処理であれば、前記部分画像は、前記描画処理により描画されるように設定されている設定色を含み、
    前記設定色を含む前記部分画像がタッチされたことを受けて表示されるメニュー画像は、前記設定色として選択され得る複数の色を含む、画像表示装置の操作方法。
JP2014004060A 2014-01-14 2014-01-14 画像表示装置及びその操作方法 Active JP5977768B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014004060A JP5977768B2 (ja) 2014-01-14 2014-01-14 画像表示装置及びその操作方法
US14/560,839 US10901532B2 (en) 2014-01-14 2014-12-04 Image display apparatus having touch detection and menu erasing
CN201510015041.2A CN104777996A (zh) 2014-01-14 2015-01-12 图像显示装置及其操作方法
CN201910777680.0A CN110647248B (zh) 2014-01-14 2015-01-12 图像显示装置及其操作方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014004060A JP5977768B2 (ja) 2014-01-14 2014-01-14 画像表示装置及びその操作方法

Publications (2)

Publication Number Publication Date
JP2015132986A JP2015132986A (ja) 2015-07-23
JP5977768B2 true JP5977768B2 (ja) 2016-08-24

Family

ID=53521355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014004060A Active JP5977768B2 (ja) 2014-01-14 2014-01-14 画像表示装置及びその操作方法

Country Status (3)

Country Link
US (1) US10901532B2 (ja)
JP (1) JP5977768B2 (ja)
CN (2) CN104777996A (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102157270B1 (ko) * 2013-04-26 2020-10-23 삼성전자주식회사 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
USD747728S1 (en) * 2014-03-18 2016-01-19 Apple Inc. Display screen or portion thereof with graphical user interface
US9703433B2 (en) 2014-08-18 2017-07-11 Stmicroelectronics Asia Pacific Pte Ltd System and method of communication between a capacitive touch screen and an active stylus
WO2016106163A1 (en) * 2014-12-21 2016-06-30 Luidia, Inc. Method and system for transcribing marker locations, including erasures
USD783659S1 (en) * 2015-08-12 2017-04-11 Samsung Electronics Co., Ltd Display screen or portion thereof with graphical user interface
US10346510B2 (en) * 2015-09-29 2019-07-09 Apple Inc. Device, method, and graphical user interface for providing handwriting support in document editing
USD795281S1 (en) * 2016-01-22 2017-08-22 Samsung Electronics Co., Ltd Display screen or portion thereof with transitional graphical user interface
TW201738701A (zh) * 2016-04-20 2017-11-01 翰碩電子股份有限公司 具有省電裝置之電容筆
KR102523154B1 (ko) * 2016-04-22 2023-04-21 삼성전자주식회사 터치 스크린 장치, 입력 장치 및 그 제어 방법
JP6734789B2 (ja) 2017-01-19 2020-08-05 シャープ株式会社 複数の電子ペンによる操作を受付ける画像表示装置
JP6832725B2 (ja) * 2017-01-31 2021-02-24 シャープ株式会社 表示装置、表示方法及びプログラム
JP6456422B2 (ja) * 2017-03-17 2019-01-23 株式会社Pfu サムネイル画像表示装置、サムネイル画像表示装置の制御方法及びコンピュータの制御プログラム
US10569302B2 (en) * 2017-06-26 2020-02-25 Qualcomm Incorporated Biometric sensor with force detection and ultrasonic imaging capability
USD910711S1 (en) 2018-04-10 2021-02-16 Google Llc Display screen with icon
JP7141327B2 (ja) * 2018-12-20 2022-09-22 シャープ株式会社 情報処理装置
CN111831281A (zh) * 2019-01-28 2020-10-27 华为技术有限公司 电子设备的显示方法、图形用户界面及电子设备
JP7187663B2 (ja) * 2019-03-12 2022-12-12 株式会社ワコム タッチパッド及びコンピュータ
JP7299754B2 (ja) * 2019-05-22 2023-06-28 シャープ株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
US20220308712A1 (en) * 2020-10-29 2022-09-29 Boe Technology Group Co., Ltd. Intelligent interactive method, device and apparatus for touch display device and storage medium
JP2022096524A (ja) * 2020-12-17 2022-06-29 キヤノン株式会社 投影装置
CN113157139B (zh) * 2021-05-20 2024-02-27 深圳市亿家网络有限公司 一种触屏的辅助操作方法和操作装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02292617A (ja) 1989-05-01 1990-12-04 Wacom Co Ltd 位置検出装置
JPH0535436A (ja) * 1991-07-29 1993-02-12 Ricoh Co Ltd 情報処理装置
JP3075882B2 (ja) 1993-03-31 2000-08-14 株式会社東芝 文書作成編集装置
JPH07160420A (ja) * 1993-12-13 1995-06-23 Fujitsu Ltd 手書き操作型計算機
JPH0895737A (ja) 1994-09-28 1996-04-12 Wacom Co Ltd デジタイザによる操作メニュー表示方法
US20030038790A1 (en) * 2001-08-22 2003-02-27 Seiko Epson Corporation Information processing system, input/output apparatus, personal digital assistant, and display apparatus
JP4478559B2 (ja) * 2004-12-13 2010-06-09 キヤノン株式会社 座標入力装置、座標入力方法、プログラムおよび記憶媒体
JP2009169938A (ja) * 2007-12-20 2009-07-30 Seiko Epson Corp タッチパネル入力装置、タッチパネル入力装置の制御方法及び制御プログラム、電子機器
JP2009193323A (ja) * 2008-02-14 2009-08-27 Sharp Corp 表示装置
CN101315586B (zh) 2008-07-21 2013-01-09 常州迪锐特电子科技有限公司 一种用于交互式电子白板的电子笔及其交互控制方法
US8549432B2 (en) * 2009-05-29 2013-10-01 Apple Inc. Radial menus
US20120218203A1 (en) * 2011-02-10 2012-08-30 Kanki Noriyoshi Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus
EP2689378A2 (en) * 2011-03-21 2014-01-29 N-Trig Ltd. System and method for authentication with a computer stylus
JP5779422B2 (ja) * 2011-06-28 2015-09-16 シャープ株式会社 表示システムおよび表示プログラム
JP5852857B2 (ja) * 2011-11-21 2016-02-03 シャープ株式会社 表示システムおよび表示プログラム
US8994698B2 (en) * 2012-03-02 2015-03-31 Adobe Systems Incorporated Methods and apparatus for simulation of an erodible tip in a natural media drawing and/or painting simulation
JP5808712B2 (ja) * 2012-05-23 2015-11-10 日立マクセル株式会社 映像表示装置
KR20150057863A (ko) * 2013-11-20 2015-05-28 삼성전자주식회사 휴대 장치 및 휴대 장치의 화면 밝기 제어방법

Also Published As

Publication number Publication date
US10901532B2 (en) 2021-01-26
US20150199036A1 (en) 2015-07-16
CN110647248B (zh) 2023-07-18
CN110647248A (zh) 2020-01-03
JP2015132986A (ja) 2015-07-23
CN104777996A (zh) 2015-07-15
CN110647248A8 (zh) 2020-03-06

Similar Documents

Publication Publication Date Title
JP5977768B2 (ja) 画像表示装置及びその操作方法
JP5536690B2 (ja) タッチ描画表示装置及びその操作方法
JP6189680B2 (ja) インターフェイス装置、インターフェイス方法、インターフェイスプログラム、及び、そのプログラムを記憶したコンピュータ読取可能な記録媒体
US10747425B2 (en) Touch operation input device, touch operation input method and program
US20170336932A1 (en) Image display apparatus allowing operation of image screen and operation method thereof
WO2014002676A1 (ja) 画像表示装置及び画像表示システム
JP2012168621A (ja) タッチ描画表示装置及びその操作方法
JP2015158828A (ja) 電子黒板装置
JP2013178701A (ja) 複数ウィンドウを用いたタッチ描画表示装置
JP6654722B2 (ja) 画像表示装置および画像表示方法
JP6253945B2 (ja) 画像表示装置
JP6087602B2 (ja) 電子黒板
JP5801920B2 (ja) タッチ描画表示装置及びその操作方法
JP2018028954A (ja) 画像表示方法
JP2019204384A (ja) 情報処理装置、情報処理方法、及びプログラム
JP6682768B2 (ja) 表示システム、表示装置、情報処理装置及び制御方法
JP6162001B2 (ja) 描画システム
JP6600423B2 (ja) 表示装置、表示方法及びプログラム
JP6416988B2 (ja) 表示装置、表示方法及びプログラム
JP6466527B2 (ja) 表示装置、表示方法及びプログラム
JP6240303B2 (ja) 画像表示装置、表示制御プログラムおよび表示制御方法
JP6377828B2 (ja) 画像表示装置、表示制御プログラムおよび表示制御方法
JP2022188719A (ja) 画像処理方法および画像処理装置
JP2019204383A (ja) 情報処理装置、情報処理方法、及びプログラム
JP2015162161A (ja) 情報処理装置、情報処理プログラムおよび情報処理方法

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160722

R150 Certificate of patent or registration of utility model

Ref document number: 5977768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150