JPWO2014147717A1 - 電子機器、表示制御方法およびプログラム - Google Patents

電子機器、表示制御方法およびプログラム Download PDF

Info

Publication number
JPWO2014147717A1
JPWO2014147717A1 JP2015506401A JP2015506401A JPWO2014147717A1 JP WO2014147717 A1 JPWO2014147717 A1 JP WO2014147717A1 JP 2015506401 A JP2015506401 A JP 2015506401A JP 2015506401 A JP2015506401 A JP 2015506401A JP WO2014147717 A1 JPWO2014147717 A1 JP WO2014147717A1
Authority
JP
Japan
Prior art keywords
display control
display
detected
handwriting
pen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015506401A
Other languages
English (en)
Other versions
JP5908648B2 (ja
Inventor
藤井 哲也
哲也 藤井
滋 本井
滋 本井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Application granted granted Critical
Publication of JP5908648B2 publication Critical patent/JP5908648B2/ja
Publication of JPWO2014147717A1 publication Critical patent/JPWO2014147717A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/142Image acquisition using hand-held instruments; Constructional details of the instruments
    • G06V30/1423Image acquisition using hand-held instruments; Constructional details of the instruments the instrument generating sequences of position coordinates corresponding to handwriting

Abstract

実施形態によれば、電子機器は、第1表示制御手段と、第2表示制御手段とを具備する。第1表示制御手段は、タッチスクリーンディスプレイによってタッチ入力が検知されている位置に対応する第1オブジェクトを前記タッチスクリーンディスプレイに表示する。第2表示制御手段は、タッチ入力が検知された位置の軌跡に対応する第2オブジェクトを前記タッチスクリーンディスプレイに表示する。第1オブジェクトは、タッチ入力が検知されている位置から前記第2オブジェクトの終端側に向かう部分を有する形状のオブジェクトである。

Description

本発明の実施形態は、手書き入力機能を備えた電子機器の表示制御技術に関する。
近年、タブレット端末やスマートフォンといったバッテリ駆動可能で携行容易な電子機器が種々開発されている。この種の電子機器の多くは、ユーザによる入力操作を容易にするために、タッチスクリーンディスプレイを備えている。
ユーザは、タッチスクリーンディスプレイ上に表示されるメニューまたはオブジェクトを指などでタッチすることにより、これらメニューまたはオブジェクトに関連づけられた機能の実行を電子機器に指示することができる。
また、タッチスクリーンディスプレイを使った入力操作は、電子機器に対して動作指示を与えるに止まらず、手書きで文書を入力する用途にも使われている。最近では、この種の電子機器を持参して会議に出席し、タッチスクリーンディスプレイ上で手書き入力を行うことで、メモを取ること等も行われ始めている。
タッチスクリーンディスプレイ上で手書き入力を行うと、その筆跡がタッチスクリーンディスプレイ上に表示される。例えば曲線表示に関する提案などは、これまでも種々成されている。
特開平09−106321号公報
ところで、ペンや指でタッチスクリーンディスプレイ上に文字や絵などを描いた際、入力データがオペレーティングシステム(OS)を含むソフトウェアで処理され、その文字や絵が実際にタッチスクリーンディスプレイ上に表示されるまでには、数10ミリ秒から100ミリ秒程度の遅延が生じる。この遅延が、タッチスクリーンディスプレイ上での手書き入力の書き心地を損ねる要因となってしまっている。
その改善策として、それまでの筆跡から線分の伸びる方向や大きさ(長さ)を予測することが考えられる。しかしながら、言うまでも無く、予測は外れることがあり、予測が外れた場合、予測線が実際の筆跡と一致せず、ユーザに違和感を与える恐れがある。
本発明の一形態は、ユーザに違和感を与えることなく、筆跡の表示遅延を目立たないようにすることを実現した電子機器、表示制御方法およびプログラムを提供することを目的とする。
実施形態によれば、電子機器は、第1表示制御手段と、第2表示制御手段とを具備する。第1表示制御手段は、タッチスクリーンディスプレイによってタッチ入力が検知されている位置に対応する第1オブジェクトを前記タッチスクリーンディスプレイに表示する。第2表示制御手段は、タッチ入力が検知された位置の軌跡に対応する第2オブジェクトを前記タッチスクリーンディスプレイに表示する。第1オブジェクトは、タッチ入力が検知されている位置から前記第2オブジェクトの終端側に向かう部分を有する形状のオブジェクトである。
図1は、実施形態の電子機器の外観を示す斜視図である。 図2は、実施形態の電子機器のシステム構成を示す図である。 図3は、実施形態の電子機器上で動作する手書き入力機能に関わるソフトウェアの機能ブロック図である。 図4は、筆跡の表示遅延を説明するための図である。 図5は、実施形態の電子機器が実行する表示制御処理の原理を説明するための第1の図である。 図6は、実施形態の電子機器が実行する表示制御処理の原理を説明するための第2の図である。 図7は、実施形態の電子機器が実行する表示制御処理の原理を説明するための第3の図である。 図8は、実施形態の電子機器が実行するペンカーソルの表示処理の第1のパターンを説明するための図である。 図9は、実施形態の電子機器が実行するペンカーソルの表示処理の第2のパターンを説明するための図である。 図10は、実施形態の電子機器が実行するペンカーソルの表示処理の第3のパターンを説明するための第1の図である。 図11は、実施形態の電子機器が実行するペンカーソルの表示処理の第3のパターンを説明するための第2の図である。 図12は、実施形態の電子機器によってペンカーソルの線分の濃淡を制御する例を示す図である。 図13は、実施形態の電子機器が実行するペンカーソルの表示制御処理の流れを示すフローチャートである。
以下、実施の形態について図面を参照して説明する。
本実施形態の電子機器は、例えば、タブレット端末、ノートブック型パーソナルコンピュータ、スマートフォンなど、ペンまたは指によって手書き入力可能な携帯型電子機器として実現され得る。図1は、本実施形態に係る電子機器の外観を示す斜視図である。図1に示すように、ここでは、電子機器が、タブレット端末10として実現されている場合を想定する。タブレット端末10は、本体11とタッチスクリーンディスプレイ17とを備える。タッチスクリーンディスプレイ17は、本体11の上面に重ね合わせるように取り付けられている。
本体11は、薄い箱形の筐体を有している。タッチスクリーンディスプレイ17には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上のペンまたは指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば液晶表示装置(LCD:Liquid crystal display)である。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザなどを使用することができる。以下では、デジタイザとタッチパネルの2種類のセンサの双方がタッチスクリーンディスプレイ17に組み込まれている場合を想定する。
デジタイザおよびタッチパネルの各々は、フラットパネルディスプレイの画面を覆うように設けられる。このタッチスクリーンディスプレイ17は、指を使用した画面に対するタッチ入力のみならず、ペン100を使用した画面に対するタッチ入力も検出することができる。ペン100は例えば電磁誘導ペンであってもよい。ユーザは、ペン100または指を使用してタッチスクリーンディスプレイ17上で手書き入力を行うことができる。ペン100または指による手書き入力の軌跡(筆跡)は、画面上に表示される。
図2は、タブレット端末10のシステム構成を示す図である。
タブレット端末10は、図2に示されるように、CPU101、システムコントローラ102、主メモリ103、グラフィクスコントローラ104、BIOS−ROM105、不揮発性メモリ106、無線通信デバイス107およびEC(Embedded controller)108等を備える。
CPU101は、タブレット端末10内の各種モジュールの動作を制御するプロセッサである。CPU101は、不揮発性メモリ106から主メモリ103にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS)201や手書き入力ユーティリティプログラム202が含まれている。前述した手書き入力の軌跡(筆跡)を画面上に表示する機能は、このOS201と手書き入力ユーティリティプログラム202とが協働することによって提供される。
また、CPU101は、BIOS−ROM105に格納された基本入出力システム(BIOS:Basic input/output system)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
システムコントローラ102は、CPU101のローカルバスと各種コンポーネントとの間を接続するデバイスである。システムコントローラ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ102は、PCI EXPRESS規格のシリアルバスなどを介してグラフィクスコントローラ104との通信を実行する機能も有している。
グラフィクスコントローラ104は、タブレット端末10のディスプレイモニタとして使用されるLCD17Aを制御する表示コントローラである。このグラフィクスコントローラ104によって生成される表示信号はLCD17Aに送られる。LCD17Aは、表示信号に基づいて画面イメージを表示する。LCD17A上にはタッチパネル17Bおよびデジタイザ17Cが配置されている。タッチパネル17Bは、LCD17Aの画面上で入力を行うための静電容量式のポインティングデバイスである。指による画面上の接触位置はタッチパネル17Bによって検出される。デジタイザ17CはLCD17Aの画面上で入力を行うための電磁誘導式のポインティングデバイスである。ペン100による画面上の接触位置はデジタイザ17Cによって検出される。
無線通信デバイス107は、無線LANまたは3G移動通信などの無線通信を実行するように構成されたデバイスである。EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じてタブレット端末10を電源オン/オフする機能を有している。
図3は、タブレット端末10上で動作する手書き入力機能に関わるソフトウェア(OS201および手書き入力ユーティリティプログラム202)の機能ブロック図である。
図3に示すように、OS201は、ペンデバイスドライバ301、入力イベント処理部302、ペンカーソル表示部303、グラフィクスライブラリ304およびグラフィクスデバイスドライバ305を有している。また、手書き入力ユーティリティプログラム202は、手書きデータ入力部401、ペンカーソル表示制御部402および筆跡表示制御部403を有している。
前述したように、タッチスクリーンディスプレイ17は、画面に対するタッチ操作をタッチパネル17Bまたはデジタイザ17Cで検出する。タッチパネル17Bまたはデジタイザ17Cから出力される検出信号は、OS201のペンデバイスドライバ301に入力され、入力イベント処理部302を介して、ペンカーソル表示部303および手書き入力ユーティリティプログラム202の手書きデータ入力部401に供給される。検出信号には、座標情報(X,Y)が含まれている。
ペンカーソル表示部303は、入力イベント処理部302からの検出信号に基づき、グラフィクスデバイスドライバ305を介して、タッチ操作が検出された最新の位置を示すオブジェクトをLCD17Aに表示する。グラフィクスデバイスドライバ305は、(LCD17Aを制御する)グラフィクスコントローラ104を制御するモジュールである。ここでは、このオブジェクトをペンカーソルと称する。このペンカーソルによって、ユーザは、例えばペン100によるタッチ入力位置を確認することができる。ペンカーソルは、ペン100によるタッチ入力中のみ表示されても良く、タッチ入力終了後も表示されても良い。
一方、手書き入力ユーティリティプログラム202の手書きデータ入力部401に供給された検出信号は、筆跡表示制御部403に転送される。筆跡表示制御部403は、OS201のグラフィクスライブラリ304を用いて、手書き入力の軌跡(筆跡)を示すオブジェクトを描画するモジュールである。以下、このオブジェクトを単に筆跡と称する。筆跡は、タッチ入力位置の軌跡に対応するものであればどのようなものであってもよい。グラフィクスライブラリ304は、グラフィクスデバイスドライバ305を介して、筆跡表示制御部403によって描画された筆跡をLCD17Aに表示する。なお、ペンカーソルの表示位置と筆跡の表示位置とは、必ずしも一致させなくとも構わない。
OS201のペンカーソル表示部303は、手書き入力ユーティリティプログラム202の筆跡表示制御部403によって描画される筆跡の表示遅延が目立たないように、ペンカーソルの形状を制御する機能を有しており、(手書き入力ユーティリティプログラム202の)ペンカーソル表示制御部402は、この機能の作動を(OS201の)ペンカーソル表示部303に指示するモジュールである。以下、このペンカーソル表示部303が有する機能について詳述する。
ここで、本タブレット端末10が実行する表示制御処理の原理についての理解を助けるために、図4を参照して、筆跡の表示遅延について説明する。
例えばペン100を使ってタッチスクリーンディスプレイ17上に文字や絵を描いた場合、前述したように、ペン100による画面上への接触位置がデジタイザ17Cによって検出される。デジタイザ17Cは、その接触位置を示す座標情報を含む検出信号をシステムコントローラ102に向けて出力する。システムコントローラ102は、デジタイザ17Cから受け取った検出信号を自身のレジスタに格納すると共に、CPU101に対する割り込み信号を発生させる。
この割り込み信号が発生すると、CPU101が実行するOS201(ペンデバイスドライバ301)によってシステムコントローラ102のレジスタから検出信号が読み出され、OS201の管理下で動作する手書き入力ユーティリティプログラム202(手書きデータ入力部401)に入力される。そして、手書き入力ユーティリティプログラム202(筆跡表示制御部403)は、この検出信号に基づき、手書き入力の筆跡を描画してタッチスクリーンディスプレイ17のLCD17Aに表示する。
図4のa1は、タッチスクリーンディスプレイ17のLCD17Aに表示された手書き入力の筆跡である。しかしながら、ペン100による画面上への接触位置がデジタイザ17Cによって検出されてから前述の過程を経て手書き入力ユーティリティプログラム202によって手書き入力の筆跡がタッチスクリーンディスプレイ17のLCD17Aに表示されるまでの間にも、ペン100は、タッチスクリーンディスプレイ17上を移動している。従って、ペン100の位置から遅れて筆跡が表示されることになる。図4のa2が、このようにして生じる表示遅延区間である。
これを踏まえて、図5乃至図7を参照して、本タブレット端末10が実行する表示制御処理の原理について説明する。
図5は、ペンカーソル表示部303によってLCD17Aに表示されるペンカーソルの形状を示す図である。
図5中、(A)は、例えばペン100がタッチスクリーンディスプレイ17上に接触した場合のペンカーソル(b1)の形状を示している。一方、(B)は、ペンカーソル表示部303がペンカーソルの形状を制御する機能を作動させている場合であって、例えばペン100がタッチスクリーンディスプレイ17上を矢印方向に移動した場合のペンカーソル(b2)の形状を示している。図5(B)に示すように、ペンカーソルb2は、ペン100の進行方向とは逆側に伸びる部分(線分)を有する形状となっている。なお、ペンカーソル表示部303がペンカーソルの形状を制御する機能を作動させていない場合には、ペン100が移動した場合も、図5(A)に示すペンカーソルb1が表示される。
いま、ペンカーソル表示部303がペンカーソルの形状を制御する機能を作動させている状況下において、ユーザが、筆跡の表示遅延を説明するために参照した図4と同様、ペン100を使用してタッチスクリーンディスプレイ上で筆記を行ったと想定する。
この場合、前述したように、ペンカーソル表示部303は、図6に示すように、ペン100によりタッチ入力が検知されている位置から、筆跡の終端側に向かう部分(図6の例では線分)を有する形状のペンカーソルb2を、タッチスクリーンディスプレイ17のLCD17Aに表示する。これにより、筆跡の表示遅延区間は、見かけ上、図6のc1となり、図4のa2と比較して、短くすることができる。
タッチ入力が検知されている位置から筆跡の終端側に向かう部分は、ユーザにとっての筆跡の表示遅延区間が見かけ上短くなるものであればどのようなものであってもよく、例えば、ペン100の進行方向とは逆側に伸びる線分としてもよく、タッチ入力が検知されている位置と筆跡の終端側とを結ぶ線分であってもよく、直線や曲線等の線分に限られず、その他の任意の絵柄のアイコンに対応する形状であっても良い。
また、この筆跡の表示遅延区間の短縮は、OS201(ペンカーソル表示部303)によるペンカーソルの形状の制御によって実現するので、手書き入力ユーティリティプログラム202(筆跡表示制御部403)による筆跡の描画の処理時間に影響されることがなく、逆に、手書き入力ユーティリティプログラム202(筆跡表示制御部403)による筆跡の描画の処理時間に影響を与えることもない。
さらに、予測線と異なり、予測が外れた場合における予測線と実際の筆跡との不一致でユーザに違和感を与える恐れもない。
なお、ペンカーソルb2が有するペン100の進行方向とは逆側に伸びる線分とは、より具体的には、図7に示すように、タッチパネル17Bまたはデジタイザ17Cから出力される検出信号で示される位置(d1)から手書き入力ユーティリティプログラム202の筆跡表示制御部403が描画した筆跡の終端(d2)側に伸びる線分である。ペンカーソル表示部303は、この筆跡の終端(d2)の位置を、グラフィクスライブラリ304から取得する。
次に、OS201のペンカーソル表示部303が、ペン100の進行方向とは逆側に伸びる線分を有する形状のペンカーソルb2を表示する処理について説明する。
(第1のパターン)
まず、ペンカーソルb2の表示処理の第1のパターンを説明する。
ペンカーソル表示部303は、予め、図8に示すような、複数の形状のペンカーソル用の画像データを備えている。より具体的には、線分を有しない形状のペンカーソルb1用の画像データと、それぞれが線分を有する形状であって、例えば線分の伸びる方向を45°ずつ異ならせた形状の8つのペンカーソルb2用の画像データとを備えている。
ペンカーソル表示部303は、入力イベント処理部302から供給された(タッチパネル17Bまたはデジタイザ17Cから出力された)検出信号で示される位置と、グラフィクスライブラリ304から取得した(筆跡表示制御部403が描画した)筆跡の終端の位置との位置関係に基づき、これら複数のペンカーソルb1,b2用の画像データの中から適応的に1つを選択してLCD17Aに表示する。
(第2のパターン)
次に、ペンカーソルb2の表示処理の第2のパターンを説明する。
第1のパターンでは、ペンカーソル表示部303は、予め、例えば線分の伸びる方向を45°ずつ異ならせた形状の8つのペンカーソルb2用の画像データを備えていた。第2パターンでは、例えば図9に示すように、(線分を有しない形状のペンカーソルb1用の画像データとは別に)線分を有する形状のペンカーソルb2用の画像データを1つだけ備え、その回転角度(e)を設定してLCD17Aに表示する。
つまり、ペンカーソル表示部303は、入力イベント処理部302から供給された(タッチパネル17Bまたはデジタイザ17Cから出力された)検出信号で示される位置と、グラフィクスライブラリ304から取得した(筆跡表示制御部403が描画した)筆跡の終端の位置との位置関係に基づき、線分を有するペンカーソルb2用の画像データの回転角度を適応的に設定してLCD17Aに表示する。第1のパターンと比較して、線分の伸びる方向を細かく制御することができる。
(第3のパターン)
次に、ペンカーソルb2の表示処理の第3のパターンを説明する。
第1および第2のパターンでは、ペンカーソルb2の線分の長さは固定であった。第3のパターンでは、ペンカーソル表示部303は、例えば図10に示すように、ペンカーソルb2の線分の終端を含む少なくとも1以上の座標データ(f2)を設定して、可変長のペンカーソルb2の線分を描画する。図10中、f1は、入力イベント処理部302から供給された(タッチパネル17Bまたはデジタイザ17Cから出力された)検出信号で示される位置である。
この方法によれば、例えばペン100の移動速度、即ち、入力イベント処理部302から供給された(タッチパネル17Bまたはデジタイザ17Cから出力された)検出信号で示される位置と、グラフィクスライブラリ304から取得した(筆跡表示制御部403が描画した)筆跡の終端の位置との距離に基づき、ペンカーソルb2の線分の長さを調整できる。また、図11(A)に示すように、線分を直線として描画することは勿論、図11(B)に示すように、複数の座標データ(f2)を設定することにより、線分を曲線として描画することも可能となる。線分を曲線として描画する場合、ペンカーソル表示部303は、グラフィクスライブラリ304から取得した(筆跡表示制御部403が描画した)それまでの筆跡の位置から、入力イベント処理部302から供給された(タッチパネル17Bまたはデジタイザ17Cから出力された)検出信号で示される位置に至るであろう、筆跡の終端に継続する筆跡を予測し、この予測した筆跡に沿って、複数の座標データ(f2)を設定する。
なお、本タブレット端末10が、例えばペン100を使ってタッチスクリーンディスプレイ17上に文字や絵を描くにあたって、色や太さを適宜に設定するためのユーザインタフェースを搭載する場合も考えられる。OS201のペンカーソル表示部303は、第1および第2のパターンの場合、ユーザの設定に応じて、ペンカーソルb1,b2の色を制御することが可能である。また、第3のパターンの場合、ユーザの設定に応じて、ペンカーソルb1,b2の色、ペンカーソルb2の線分の太さを制御することが可能である。
さらに、OS201のペンカーソル表示部303は、第1乃至第3のパターンのいずれの場合においても、例えば図12に示すように、先端部に向かうに従って淡くなるように(g1[濃い]>g2>g3[淡い])線分の濃淡を制御することも可能である。
図13は、本タブレット端末10が実行するペンカーソルの表示制御処理の流れを示すフローチャートである。
OS201のペンカーソル表示部303は、入力イベント処理部302から最新のペン100の座標を取得する(ブロックA1)。また、ペンカーソル表示部303は、手書き入力ユーティリティプログラム202の筆跡表示制御部403によって描画された筆跡の終端の座標をグラフィクスライブラリ304から取得する(ブロックA2)。そして、ペンカーソル表示部303は、筆跡の終端側に向かって伸びる線分を有するペンカーソルを最新のペン100の座標に表示する(ブロックA3)。
以上のように、本タブレット端末10によれば、ユーザに違和感を与えることなく、筆跡の表示遅延を目立たないようにすることが実現される。
なお、本実施形態の動作手順は全てソフトウェアによって実現することができるので、このソフトウェアをコンピュータ読み取り可能な記憶媒体を通じて通常のコンピュータに導入することにより、本実施形態と同様の効果を容易に実現することができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
実施形態によれば、電子機器は、第1表示制御手段と、第2表示制御手段とを具備する。第1表示制御手段は、タッチスクリーンディスプレイによってタッチ入力が検知されている位置に対応する第1オブジェクトを前記タッチスクリーンディスプレイに表示する。第2表示制御手段は、タッチ入力が検知された位置の軌跡に対応する第2オブジェクトを前記タッチスクリーンディスプレイに表示する。第1オブジェクトは、タッチ入力が検知されている位置から前記第2オブジェクトの終端側に向かう部分を有する形状のオブジェクトである。第1表示制御手段は、前記タッチ入力が検知されている位置と前記第2オブジェクトの終端の位置とに応じて、前記部分の長さを制御する。

Claims (10)

  1. タッチスクリーンディスプレイによってタッチ入力が検知されている位置に対応する第1オブジェクトを前記タッチスクリーンディスプレイに表示する第1表示制御手段と、
    タッチ入力が検知された位置の軌跡に対応する第2オブジェクトを前記タッチスクリーンディスプレイに表示する第2表示制御手段と、
    を具備し、
    前記第1オブジェクトは、タッチ入力が検知されている位置から前記第2オブジェクトの終端側に向かう部分を有する形状のオブジェクトである
    電子機器。
  2. 前記第1表示制御手段は、前記タッチ入力が検知されている位置と前記第2オブジェクトの終端の位置とに応じて、前記部分の長さを制御する請求項1に記載の電子機器。
  3. 前記部分は線であって、
    前記第1表示制御手段は、前記第2オブジェクトの線の種類、太さ、または色の少なくともいずれかに応じて、前記線の属性を制御する請求項1または2に記載の電子機器。
  4. 前記第1表示制御手段は、前記タッチ入力が検知されている位置から前記第2オブジェクトの終端側に向かうに従って淡くなるように前記部分の濃淡を制御する請求項1、2または3に記載の電子機器。
  5. 前記第1表示制御手段は、前記第2オブジェクトで示される軌跡と前記タッチ入力が検知されている位置とに基づき、前記第2オブジェクトの終端から前記タッチ入力が検知されている位置に至る軌跡を予測し、前記予測した軌跡に沿った直線または曲線となるように前記部分の形状を制御する請求項1、2、3または4に記載の電子機器。
  6. 前記第1表示制御手段は、それぞれが互いに異なる方向に伸びる部分を有する形状の複数のオブジェクトの中の1つを前記第1オブジェクトとして設定する請求項1に記載の電子機器。
  7. 前記第1オブジェクトは、第1方向に伸びる部分を有する形状のオブジェクトであり、
    前記第1表示制御手段は、前記第2オブジェクトを回転させる角度を設定する、
    請求項1に記載の電子機器。
  8. 前記第1表示制御手段は、前記部分の終端を少なくとも含む前記部分を描画するための1以上の座標データを設定する請求項1に記載の電子機器。
  9. タッチスクリーンディスプレイを備える電子機器の表示制御方法であって、
    前記タッチスクリーンディスプレイによってタッチ入力が検知されている位置に対応する第1オブジェクトを前記タッチスクリーンディスプレイに表示し、
    タッチ入力が検知された位置の軌跡に対応する第2オブジェクトを前記タッチスクリーンディスプレイに表示し、
    前記第1オブジェクトは、タッチ入力が検知されている位置から前記第2オブジェクトの終端側に向かう部分を有する形状のオブジェクトである
    表示制御方法。
  10. コンピュータを、
    タッチスクリーンディスプレイによってタッチ入力が検知されている位置に対応する第1オブジェクトを前記タッチスクリーンディスプレイに表示する第1表示制御手段、
    タッチ入力が検知された位置の軌跡に対応する第2オブジェクトを前記タッチスクリーンディスプレイに表示する第2表示制御手段、
    として機能させ、
    前記第1オブジェクトは、タッチ入力が検知されている位置から前記第2オブジェクトの終端側に向かう部分を有する形状のオブジェクトである
    プログラム。
JP2015506401A 2013-03-18 2013-03-18 電子機器、表示制御方法およびプログラム Active JP5908648B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/057704 WO2014147717A1 (ja) 2013-03-18 2013-03-18 電子機器、表示制御方法およびプログラム

Publications (2)

Publication Number Publication Date
JP5908648B2 JP5908648B2 (ja) 2016-04-26
JPWO2014147717A1 true JPWO2014147717A1 (ja) 2017-02-16

Family

ID=51579453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015506401A Active JP5908648B2 (ja) 2013-03-18 2013-03-18 電子機器、表示制御方法およびプログラム

Country Status (3)

Country Link
US (1) US20150153850A1 (ja)
JP (1) JP5908648B2 (ja)
WO (1) WO2014147717A1 (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2013404001B2 (en) 2013-10-30 2017-11-30 Apple Inc. Displaying relevant user interface objects
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
US10066959B2 (en) 2014-09-02 2018-09-04 Apple Inc. User interactions for a mapping application
US9710157B2 (en) 2015-03-12 2017-07-18 Lenovo (Singapore) Pte. Ltd. Removing connective strokes
US9460359B1 (en) * 2015-03-12 2016-10-04 Lenovo (Singapore) Pte. Ltd. Predicting a target logogram
US20160358133A1 (en) 2015-06-05 2016-12-08 Apple Inc. User interface for loyalty accounts and private label accounts for a wearable device
US9940637B2 (en) 2015-06-05 2018-04-10 Apple Inc. User interface for loyalty accounts and private label accounts
US20170038856A1 (en) * 2015-08-04 2017-02-09 Apple Inc. User interface for a touch screen device in communication with a physical keyboard
US10698505B2 (en) * 2016-01-13 2020-06-30 Hewlett-Packard Development Company, L.P. Executing multiple pen inputs
US10860199B2 (en) 2016-09-23 2020-12-08 Apple Inc. Dynamically adjusting touch hysteresis based on contextual data
GB201618288D0 (en) * 2016-10-28 2016-12-14 Remarkable As Interactive displays

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08286832A (ja) * 1995-04-17 1996-11-01 Olympus Optical Co Ltd カーソル表示装置
FR2928257B1 (fr) * 2008-03-04 2011-01-14 Super Sonic Imagine Systeme electronique de visualisation a double ecran.
JP5472565B2 (ja) * 2008-09-03 2014-04-16 日本電気株式会社 情報処理装置、ポインタ指定方法、及びプログラム
JP5377713B2 (ja) * 2012-06-01 2013-12-25 株式会社東芝 情報処理装置およびプログラム

Also Published As

Publication number Publication date
US20150153850A1 (en) 2015-06-04
JP5908648B2 (ja) 2016-04-26
WO2014147717A1 (ja) 2014-09-25

Similar Documents

Publication Publication Date Title
JP5908648B2 (ja) 電子機器、表示制御方法およびプログラム
KR102120930B1 (ko) 포터블 디바이스의 사용자 입력 방법 및 상기 사용자 입력 방법이 수행되는 포터블 디바이스
JP5507494B2 (ja) タッチ・スクリーンを備える携帯式電子機器および制御方法
JP5237980B2 (ja) 座標入力装置、座標入力方法、およびコンピュータが実行可能なプログラム
US20140118295A1 (en) Electronic apparatus, handwriting display method, and storage medium
JP2013030050A (ja) スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
JP5951886B2 (ja) 電子機器および入力方法
US20140068524A1 (en) Input control device, input control method and input control program in a touch sensing display
JP2012003404A (ja) 情報表示装置
JP2010218286A (ja) 情報処理装置およびプログラムおよび表示方法
JP6146350B2 (ja) 情報処理装置およびコンピュータプログラム
KR20140055880A (ko) 가상 화면 제어 방법 및 장치
US9823890B1 (en) Modifiable bezel for media device
US20140359541A1 (en) Terminal and method for controlling multi-touch operation in the same
US20160154489A1 (en) Touch sensitive edge input device for computing devices
JP6151166B2 (ja) 電子機器および表示方法
US20140152586A1 (en) Electronic apparatus, display control method and storage medium
JP2015088147A (ja) タッチパネル入力装置及び入力処理プログラム
TW201337640A (zh) 觸控指令整合方法及觸控系統
JP2014215749A (ja) 電子機器、制御方法およびプログラム
JP2014106849A (ja) 電子機器、表示処理プログラム及び表示処理方法
JP2011204092A (ja) 入力装置
JP5624662B2 (ja) 電子機器、表示制御方法およびプログラム
JP2015064805A (ja) 表示装置およびプログラム
KR101375727B1 (ko) 선형터치패턴을 이용한 터치스크린의 화면확대/축소 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160223

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160323

R151 Written notification of patent or utility model registration

Ref document number: 5908648

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350