JP2014216013A - イメージオーバレイを用いてディスプレイ遅延を低減する方法及び装置 - Google Patents

イメージオーバレイを用いてディスプレイ遅延を低減する方法及び装置 Download PDF

Info

Publication number
JP2014216013A
JP2014216013A JP2014084427A JP2014084427A JP2014216013A JP 2014216013 A JP2014216013 A JP 2014216013A JP 2014084427 A JP2014084427 A JP 2014084427A JP 2014084427 A JP2014084427 A JP 2014084427A JP 2014216013 A JP2014216013 A JP 2014216013A
Authority
JP
Japan
Prior art keywords
touch
overlay data
video image
data
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014084427A
Other languages
English (en)
Other versions
JP6560484B2 (ja
JP2014216013A5 (ja
Inventor
フランク,セト
Seto Frank
ウェイ,ション
Wei Xiong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Display Co Ltd
Original Assignee
Samsung Display Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Display Co Ltd filed Critical Samsung Display Co Ltd
Publication of JP2014216013A publication Critical patent/JP2014216013A/ja
Publication of JP2014216013A5 publication Critical patent/JP2014216013A5/ja
Application granted granted Critical
Publication of JP6560484B2 publication Critical patent/JP6560484B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04164Connections between sensors and controllers, e.g. routing lines between electrodes and connection pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

【課題】イメージオーバレイを用いてディスプレイ遅延を低減する方法及び装置を提供する。【解決手段】システムは、複数のタッチイベント304を受信し、タッチイベントに基づいて出力を生成するように構成されるタッチ経路ロジック400と、ビデオイメージを受信し、タッチ経路ロジックの出力を受信し、タッチ経路ロジックの出力に応じてビデオイメージをオーバレイデータ314と組み合わせて組み合わせられたディスプレイイメージを生成し、組み合わせられたディスプレイイメージを出力するように構成されるレンダリングロジック404と、を備える。【選択図】図4

Description

本特許出願は、「A Method and Apparatus to Reduce Display Lag Using Image Overlay」という名称で2013年4月22日付けで提出され、その全体が参照により本明細書に取り込まれる、米国予備出願一連番号61/814,750の優先権及び利益を主張する。
本発明の実施形態は、タッチ入力デバイスを備えるディスプレイデバイスに関するものであり、さらに詳しくは、タッチ入力デバイス及びディスプレイデバイス間のディスプレイ遅延(display lag)を低減するシステム及び方法に関する。
重なり合っているタッチセンサーパネルに組み付けられたり結合されたりするディスプレイパネルは、モバイル電話機、タブレットコンピュータ、ラップトップコンピュータ及びデスクトップコンピュータなどのタッチ−可能コンピューティングデバイスに相互作用システム(interaction system)を提供する。そのようなコンピューティングデバイスにおいて、ディスプレイパネルの上にグラフィックがディスプレイされ、ユーザーは、スクリーンをタッチして(例えば、能動スタイラス、手動スタイラス、又は指のような身体の一部を用いて)これらのデバイスと相互作用することにより、直観的なユーザーインターフェースが提供される。
タッチセンサーパネルにより検出されるタッチイベント(touch event)は、典型的にデバイスのアプリケーションプロセッサ(application processor;AP)上で駆動される高レベルアプリケーションソフトウェアによりプロセシングされる。タッチセンサーパネル及びAP間の多くのプロセシングステップとAP上での非決定性(non−deterministic)プロセシング時間(APにより行われる他の計算業務による遅延を含む)によりユーザーのタッチ入力に対するコンピューティングデバイスの応答性(responsiveness)を低減する高レベルの待ち時間(latency)が導入される。
いくつかの実証研究によって、ほとんどの人々が、例えばタッチすることと、見ることとの感覚間で、30ミリ秒の非同時性(asynchrony)さえ検出することができるということが明らかとなった(例えば、London Taylor & Francis GroupのKeetels, M.及びVroomen, Jの(2012) Perception of Synchrony Between the Senses、及びM. M. Murray及びM. T. Wallace (Eds)のFrontiers in the neural basis of multisensory processes(ページ147−177を参照すること)。50〜200ミリ秒の遅延は、このコンピューティングデバイスのユーザーのほとんどが検出することができる筈であり、これは、ユーザーの入力にフィードバックを直ちに提供するようにデバイスをコンピューティングすることができないため、ユーザーの不満の増加につながる虞がある。
本発明の目的は、タッチイベント及びこのタッチイベントに対するディスプレイ応答間の待ち時間(レイテンシ)を低減するところにある。
本発明の一つの実施形態によれば、システムは、複数のタッチイベントを受信し、タッチイベントに基づいて出力を生成するように構成されるタッチ経路ロジックと、レンダリングロジックと、を備え、レンダリングロジックは、ビデオイメージを受信し、タッチ経路ロジックの出力を受信し、組み合わせられたディスプレイイメージを生成するためにタッチ経路ロジックの出力に応じてビデオイメージをオーバレイデータと組み合わせ、組み合わせられたディスプレイイメージを出力するように構成される。
ビデオイメージはディスプレイされたラインを備えていてもよく、オーバレイデータの特性はディスプレイされたラインの特性と整合されてもよい。
特性は、カラーを備えていてもよい。
タッチ経路ロジックはアプリケーションプロセッサの構成要素であってもよく、アプリケーションプロセッサはビデオイメージを生成するように構成されてもよい。
タッチ経路ロジックは、ディスプレイ駆動機インターフェース制御器の構成要素であってもよく、ディスプレイ駆動機インターフェース制御器は、アプリケーションプロセッサからビデオイメージを受信し、組み合わせられたディスプレイイメージをディスプレイパネルに供給するように構成されてもよい。
タッチ経路ロジックは、タッチセンサーパネルに組み付けられるタッチ制御器の構成要素であってもよく、タッチ制御器は、タッチセンサーパネルから複数のタッチ信号を受信し、複数のタッチイベントを生成するように構成されてもよい。
タッチ経路ロジックは、タッチセンサーパネルからタッチイベントを受信し、受信されたタッチイベントに応じてマスクデータを生成するように構成されてもよく、マスクデータは、数値のマトリックスを備え、数値のそれぞれは、組み合わせられたディスプレイイメージを製作するためにレンダリングロジックの動作を識別し、マトリックス内の数値の位置は、組み合わせられたディスプレイイメージ内のピクセルの位置に対応してもよい。
レンダリングロジックは、組み合わせられたディスプレイイメージ内のそれぞれのピクセル別に、マスクデータ内の対応する位置における値に応じてビデオイメージの対応するピクセル又はオーバレイデータを出力するか否かを決定することにより、ビデオイメージをオーバレイデータと組み合わせるように構成されてもよい。
レンダリングロジックは、組み合わせられたディスプレイイメージ内のそれぞれのピクセル別に、マスクデータ内の対応する位置における値に応じてビデオイメージの対応するピクセル及びオーバレイデータを混合する方法を決定することにより、ビデオイメージをオーバレイデータと組み合わせるように構成されてもよい。
混合は、エッジ向上動作、ダッジ動作、バーン動作又はアルファ合成効果であってもよい。
マスクデータの数値のそれぞれは、組み合わせられたディスプレイイメージ内の正確に一つのピクセルに対応してもよい。
マスクデータの数値のそれぞれは、組み合わせられたディスプレイイメージ内の1以上のピクセルに対応してもよい。
オーバレイデータは複数のページを備えていてもよく、マスクデータは複数のページのうちの少なくとも一つを識別する情報を備えていてもよい。
タッチ経路ロジックは、パラメータを受信し、タッチイベントに応じて推定タッチ経路を計算し、推定タッチ経路及びパラメータに応じてマスクデータを生成するようにさらに構成されてもよく、ここで、パラメータは、マスク領域の位置を制御してもよく、推定タッチ経路の幅、スタイル又は形状を制御してもよい。
システムは、ビデオイメージを生成するように構成されるアプリケーションプロセッサをさらに備えていてもよく、ここで、レンダリングロジックは、アプリケーションプロセッサの構成要素であってもよい。
レンダリングロジックは、タッチイベントの下位セットに基づいてビデオイメージをオーバレイデータと組み合わせるようにさらに構成されてもよく、下位セットは、固定された数のビデオイメージに対応してもよい。
レンダリングロジックは、ビデオイメージをレンダリングロジックに供給するように構成されるアプリケーションプロセッサにより導入される遅延に対応する多数のビデオイメージに対応するタッチイベントの下位セットに基づいてビデオイメージをオーバレイデータと組み合わせるようにさらに構成されてもよい。
レンダリングロジックは、ビデオイメージをレンダリングロジックに供給するように構成されるアプリケーションプロセッサの以前のレンダリングされた出力から計算される複数のビデオイメージに対応するタッチイベントの下位セットに基づいてビデオイメージをオーバレイデータと組み合わせるようにさらに構成されてもよい。
オーバレイデータは、ビットマップイメージを備えていてもよい。
オーバレイデータは、単一のカラー値を有していてもよい。
レンダリングロジックは、アプリケーションプロセッサからの入力なしにオーバレイデータを生成するように構成されてもよい。
レンダリングロジックは、アプリケーションプロセッサから供給されるデータ及びシステム内部のデータを用いてオーバレイデータを生成するように構成されてもよい。
レンダリングロジックは、アプリケーションプロセッサからオーバレイデータを受信するように構成されてもよい。
タッチイベントは、ポインティングツール及びタッチ入力パネル間の相互作用の結果として発生されてもよい。
本発明の一実施形態によれば、タッチ入力に視覚的なフィードバックを提供する方法は、ディスプレイに組み付けられたタッチセンサーパネルから複数のタッチイベントを受信するステップと、ビデオイメージを受信するステップと、組み合わせられたディスプレイイメージを生成するためにタッチイベントに応じてビデオイメージをオーバレイデータと組み合わせるステップと、組み合わせられたディスプレイイメージをディスプレイに供給するステップと、を含む。
前記方法は、パラメータを受信するステップと、タッチイベントに応じて推定タッチ経路を計算するステップと、をさらに含んでいてもよく、ここで、ビデオイメージは、推定タッチ経路及びパラメータに応じてオーバレイデータと組み合わせられてもよく、パラメータは、組み合わせられたディスプレイイメージにおけるオーバレイデータの位置を制御してもよく、推定タッチ経路の幅、スタイル又は形状を制御してもよい。
前記方法は、タッチイベントに応じて推定タッチ経路を計算するステップをさらに含んでいてもよく、ここで、ビデオイメージは、推定タッチ経路に応じてオーバレイデータと組み合わせられてもよく、推定タッチ経路は、固定された数のフレームに対応するタッチイベントの下位セットに基づいて計算されてもよい。
前記方法は、タッチイベントに応じて推定タッチ経路を計算するステップをさらに含んでいてもよく、ここで、ビデオイメージは、推定タッチ経路に応じてオーバレイデータと組み合わせられてもよく、推定タッチ経路は、アプリケーションプロセッサにより導入される遅延に対応する複数のフレームに対応するタッチイベントの下位セットに基づいて計算されてもよい。
前記方法は、タッチイベントに応じて推定タッチ経路を計算するステップをさらに含んでいてもよく、ここで、ビデオイメージは、推定タッチ経路に応じてオーバレイデータと組み合わせられてもよく、推定タッチ経路は、アプリケーションプロセッサの以前のレンダリングされた出力から計算される複数のフレームに対応するタッチイベントの下位セットに基づいて計算されてもよい。
オーバレイデータは、ビットマップイメージを備えていてもよい。
オーバレイデータは、単一のカラー値を有していてもよい。
前記方法は、アプリケーションプロセッサからの入力なしにオーバレイデータを生成するステップをさらに含んでいてもよい。
前記方法は、アプリケーションプロセッサから供給されるデータ及び内部データを用いてオーバレイデータを生成するステップをさらに含んでいてもよい。
前記方法は、アプリケーションプロセッサからオーバレイデータを受信するステップをさらに含んでいてもよい。
組み合わせられたディスプレイイメージを生成するためにタッチイベントに応じてビデオイメージをオーバレイデータと組み合わせるステップは、タッチイベントに基づいてマスクデータを生成するステップであって、マスクデータは数値のマトリックスを備え、数値のそれぞれは組み合わせられたディスプレイイメージを製作するための動作を識別する、生成するステップを含んでいてもよく、ここで、マトリックス内の数値の位置は、組み合わせられたディスプレイイメージ内のピクセルの位置に対応してもよい。
前記方法は、組み合わせられたディスプレイイメージ内のそれぞれのピクセル別に、マスクデータでの対応する位置における値に応じてビデオイメージの対応するピクセル又はオーバレイデータを出力するか否かを決定するステップをさらに含んでいてもよい。
前記方法は、組み合わせられたディスプレイイメージ内のそれぞれのピクセル別に、マスクデータでの対応する位置における値に応じてビデオイメージの対応するピクセル及びオーバレイデータを混合する方法を決定するステップをさらに含んでいてもよい。
混合は、エッジ向上動作、ダッジ動作、バーン動作又はアルファ合成効果であってもよい。
マスクデータの数値のそれぞれは、組み合わせられたディスプレイイメージ内の正確に一つのピクセルに対応してもよい。
マスクデータの数値のそれぞれは、組み合わせられたディスプレイイメージ内の1以上のピクセルに対応してもよい。
オーバレイデータは複数のページを備えていてもよく、マスクデータは複数のページのうちの少なくとも一つを識別する情報を備えていてもよい。
タッチイベントは、ポインティングツール及びタッチ入力パネル間の相互作用の結果として発生されてもよい。
本発明の一実施形態によれば、タッチセンサーパネルと、アプリケーションプロセッサ及びディスプレイを備えるディスプレイデバイス上に描画される経路に応答してフィードバックを提供する加速器は、プロセッサと、内部に命令が保存されるメモリと、を備え、命令は、プロセッサにより起動されるとき、プロセッサに、アプリケーションプロセッサからレンダリングされたビデオフレームを受信させ、タッチセンサーパネルから複数のタッチ信号を受信させ、タッチ信号に基づいてタッチ経路を決定させ、更新されたビデオフレームを生成するためにタッチ経路及び保存されたオーバレイデータに基づいてレンダリングされたビデオフレームを更新させ、更新されたビデオフレームをディスプレイに出力させてもよい。
添付図面は明細書と共に本発明の例示的な実施形態を説明し、前記技術と共に本発明の原理を説明する役割を果たす。
従来のタッチ入力プロセシングデバイスを備えるデバイスの応答を示す図である。 本発明の実施形態によるタッチ入力プロセシングデバイスを備えるデバイスの応答を示す図である。 本発明の実施形態による低待ち時間のフィードバック経路及び従来のフィードバック経路の概略図である。 本発明の一実施形態による低待ち時間のオーバレイシステムを備えるデバイスを示すブロック図である。 本発明の一実施形態による低待ち時間のオーバレイシステム内の構成要素を示すブロック図である。 本発明の一実施形態により、第1組み合わせディスプレイイメージを生成するビデオイメージデータ、オーバレイデータ及びタッチ経路情報の組み合わせの概略図である。 本発明の一実施形態により、第2組み合わせディスプレイイメージを生成するビデオイメージデータ、オーバレイデータ及びタッチ経路情報の組み合わせの概略図である。 本発明の一実施形態により、オーバレイデータの適用を決定し、オーバレイデータをビデオイメージと組み合わせる方法を示すフローチャートである。
以下の詳細な説明において、例を挙げて単に本発明の特定の例示的な実施形態のみが示されて記述される。当業者が認識するように、本発明は、多くの異なる形態として実現可能であり、本願で挙げる実施形態に制限されると解釈されてはならない。なお、同じ参照番号は、明細書全体に亘って同じ要素を指し示す。
本発明の実施形態は、アプリケーションプロセッサがレンダリングするイメージに先立ってタッチ位置に基づいてイメージをディスプレイすることにより、ユーザーにより速いタッチ応答を感知させる。
タッチインターフェースのために設計されるソフトウェアは、視覚的なフィードバック(例えば、スワイプ操作(swiping)又はジェスチャー基盤のオンスクリーンキーボードにおける指の軌跡に対する、描画又はスケッチブックアプリケーションにおける経路の軌跡に対する、そしてゲームで描画(drawing)される経路に対する)を提供するためにスクリーン上における経路の描画及び/又は擬似「現実世界」(pseudo “real−world”)物体の直接的な物理的操作のメタファー(metaphor)を頻繁に用いる。
モバイル電話機に対するよくある不満は、ユーザーインターフェース(user interface;UI)の遅延である。現在のモバイル電話機では、典型的にタッチ行為に応答してディスプレイをアップデートするのに50〜20ミリ秒がかかる。例えば、サムスンGalaxy Note 2で測定されるようなタッチイベントに対する典型的なディスプレイ応答時間は、1秒当たりに60フレーム(frames per second;FPS)のリフレッシュ率(refresh rate)に基づいて、100ミリ秒よりも大きいか、又は、略6フレーム以上のビデオイメージであることもあり、これは、かなりのユーザーにより認知される。
図1Aは、タッチ入力プロセシングデバイスを有するデバイスの応答を示し、ここで、ディスプレイされたライン100には指の位置及びディスプレイされたライン100の最終的に描画された部分の間にギャップ102があることにより、ユーザーのタッチ及びディスプレイされたライン間に顕著なディスプレイ遅延が発生する。なお、スタイラスを用いるとき、それが能動であるにせよ、手動であるにせよ、典型的に類似のディスプレイ遅延に遭遇する。
本発明の実施形態は、APによりレンダリングされるイメージに先立ってタッチ経路でイメージをオーバレイすることにより、ユーザーにさらに速いタッチ応答を感知させる。スクリーン上でのユーザーのタッチ地点(例えば、指、スタイラス又は他のツールを用いる)及びラインの描画間のギャップを狭めることにより、感知されるディスプレイ遅延が低減される。本願では、動詞として用いられるとき、用語「オーバレイ」は、ビデオイメージ(例えば、APがレンダリングするイメージ)及び追加のイメージデータを組み合わせて追加のイメージデータに原ビデオイメージの一部分を代替させる(又は、「オーバレイ」)ことをいう。名詞として用いられるとき、用語「オーバレイ」は、組み合わせられたディスプレイイメージにおいて前記追加のイメージデータの外形を称することがある。
さらに、オーバレイ法を用いることにより、アプリケーションソフトウェアは、タッチイベントに対してディスプレイされる応答の領域(例えば、ディスプレイ上の位置)、カラー及びレンダリング動作を制御することができる。
図1Bは、本発明の実施形態によりタッチ入力プロセシングデバイスを有するデバイスのディスプレイされた応答を示し、ここで、ディスプレイされたラインは、本発明の実施形態による低待ち時間のオーバレイシステムにより描画される推定又は計算の部分104を有することにより、ユーザーにより感知されるディスプレイ遅延を低減する。
図2を参照すると、コンピューティングデバイス250において、類似システムに対する代案として、本発明の実施形態は、アプリケーションプロセッサ202を通過する従来の待ち時間経路210に通じる従来の待ち時間レベルのビデオイメージに先行して、タッチ制御器200及びディスプレイ駆動機インターフェース制御器(display driver interface controller;DDIC)204を通過する低待ち時間経路212に通じる視覚的フィードバックを即座で又はさらに速かに提供する低待ち時間オーバレイシステム(「加速器(accelerator)」又は「視覚的フィードバック加速器」として称することがある)に関するものである。
図3を参照すると、典型的にタッチスクリーンシステム及びディスプレイシステムは独自に動作する。タッチ制御器200は、タッチセンサーパネル300からのタッチ信号302をプロセシングし、座標などのこれらのタッチイベント304をアプリケーションプロセッサ(AP)202に出力する。
図3を参照すると、タッチセンサーパネル300はユーザーのタッチを検出するように構成され、データバスを介してタッチ制御器200に供給されるタッチ信号302を生成する。本発明の実施形態は、身体の一部(例えば、指)、スタイラスなどの任意の類型のポインティングツールを用いるユーザーのタッチを検出するタッチセンサーパネル300と併用することができる。本願では、用語「ポインティングツール(pointing implement)」は、デバイス(能動型スタイラス及び手動型スタイラスなどの)及び身体の一部(指又は頭などの)をはじめとして、タッチセンサーパネル300により検出可能な物体のことをいう。本発明の実施形態は、抵抗性タッチパネル、表面弾性波タッチパネル、容量性タッチパネル、赤外線タッチパネル、光タッチパネルなどの様々な類型のタッチ入力パネルのうちの任意のパネルと併用することができる。一つの実施形態において、タッチ信号302は、タッチセンサーパネル内のそれぞれの位置に対するキャパシタンス又は電圧又は電流の測定値のように、タッチセンサーパネル300により供給される原データ(raw data)に対応する。タッチイベント304に対するデータバスは、AP202及び低待ち時間のオーバレイシステム310の両方に接続される。タッチイベント304は、ユーザーによるタッチが検出された位置(例えば、タッチイベントの検出を構成するのに十分に高い値のキャパシタンス又は電圧又は電流の変更)に対応するデータ値のストリームであってもよい。一部の実施形態において、タッチイベント304は、タッチセンサーパネルに加えられた圧力を示す圧力データを備える。
AP202はタッチイベント304をプロセシングし、APから起動されるアプリケーションソフトウェアはディスプレイパネル322上にディスプレイするためにビデオイメージ316(又は、フレーム又はビデオイメージ)をDDIC204にレンダリングすることにより、前記プロセシングに合わせてディスプレイ合成を更新する。AP202は、中央処理装置(central processing unit;CPU)、グラフィック処理装置(graphical processing unit;GPU)及びメモリを備えていてもよい。
AP202はDDIC204に接続され、DDIC204は順次にディスプレイパネル322に接続される。DDIC204はAP202からビデオイメージ316を受信し、ピクセル駆動信号320をディスプレイパネル322に供給する。
一つの実施形態において、タッチセンサーパネル300と、タッチ制御器200と、DDIC204及びディスプレイパネル322は、ディスプレイモジュールの全ての構成要素であり、これらはアプリケーションプロセッサ202とは別のものであってもよい。他の実施形態において、タッチセンサーパネル300と、タッチ制御器200と、DDIC204及びディスプレイパネル322又はこれらの組み合わせは、別個のモジュールに配設されてもよく、アプリケーションプロセッサ202と組み合わせられてもよい。
DDIC204は、アプリケーションプロセッサ202から受信されるビデオイメージ(又は、ビデオイメージのフレーム)316をプロセシングし、ピクセル駆動信号320をディスプレイパネルに出力する。
パラメータ312及びオーバレイデータ314の機能はより詳細に後述される。
本発明の実施形態によれば、低待ち時間のオーバレイシステム310は、ディスプレイパネル322が類似の実現よりもタッチイベントに対する視覚的な応答をより速く表示できるようにタッチイベント304をビデオイメージ316でプロセシングする。一部の類似のデバイスにおける略6フレーム以上のディスプレイ遅延とは対照的に、本発明の実施形態は遅延を1〜2フレームに低減することができる。
より具体的に、図4は、本発明の一つの実施形態による低待ち時間のオーバレイシステム310を有するデバイスを示すブロック図である。図4を参照すると、本発明の実施形態は、4つの主要部分を備える:タッチ経路ロジック400、マスクバッファ402、オーバレイバッファ406及びレンダリングロジック404。オーバレイシステム310はDDIC204の構成要素として含まれてもよく、オーバレイシステム310の一部はDDIC204又はAP202に含まれてもよく、他の一部はタッチ制御器200に含まれてもよい。
図4に示すように、一つの実施形態において、タッチ経路ロジック400はタッチ制御器200に接続され、タッチ制御器200からタッチイベント204を受信する。また、タッチ経路ロジック400は、構成パラメータ312を受信するためにAP202に接続される。タッチ経路ロジック400は、レンダリングロジック404により用いられるマスクバッファ402に接続される。
一つの実施形態によれば、オーバレイバッファ406は、AP202に接続され、AP202から受信されるオーバレイデータ314を保存するDDIC204内のメモリデバイスである。オーバレイバッファ406は、レンダリングロジック404に保存されたオーバレイデータ314を供給するように構成される。しかしながら、本発明の実施形態はこれに制限されない。例えば、一つの実施形態において、オーバレイデータ314は、AP202からの入力なしにオーバレイシステム310内で作成されてもよい。他の実施形態において、オーバレイデータ314は、オーバレイシステム310の内部で作成されたデータ及びAP202からの入力に対応するデータの組み合わせであってもよい。
一つの実施形態によれば、レンダリングロジック404は、AP202及びオーバレイバッファ406に組み付けられ、マスクデータ500における値に応じてオーバレイデータ314をビデオイメージ316と組み合わせるように構成される。レンダリングロジック404の出力は、オーバレイデータ314及びビデオイメージ316の組み合わせられたディスプレイイメージをディスプレイパネル322にピクセル駆動信号320として供給するためにディスプレイパネル322に接続される。
しかしながら、本発明の実施形態はこれに制限されない。
例えば、一つの実施形態において、タッチ経路ロジック400、マスクバッファ402、オーバレイバッファ406及びレンダリングロジック404はそれぞれ異なるASIC(application specific integrated)を用いて実現する。本発明の他の実施形態において、全ての機能を実現するために単一のASICが用いられる。本発明のさらに他の実施形態において、フィールドプログラマブルゲートアレイ(field programmable gate array;FPGA)は、タッチ経路ロジック400、マスクバッファ402、オーバレイバッファ406及びレンダリングロジック404の機能を行うようにプログラムされる。代案として、汎用プロセッサは、タッチ経路ロジック400、マスクバッファ402、オーバレイバッファ406及びレンダリングロジック404のそれぞれの機能を行うようにプログラムされてもよい(例えば、汎用プロセッサに接続されるメモリ内に保存される命令で)。さらに他の実施形態において、タッチ経路ロジック400、マスクバッファ402、オーバレイバッファ406及びレンダリングロジック404のうちの1以上の機能は、アプリケーションプロセッサ202の構成要素として実現される。
さらに、タッチ経路ロジック400、マスクバッファ402、オーバレイバッファ406及びレンダリングロジック404が図4にDDIC204の構成要素として示されても、本発明の実施形態はこれに制限されない。一部の実施形態において、タッチ経路ロジック400、オーバレイバッファ314及びマスクバッファ402及びレンダリングロジック404(又は、これらの機能が行える構成要素)のうちの1以上は、例えば、タッチ制御器200、AP202内に配設されてもよく、別個の構成要素として配設されてもよい。さらに、これらの構成要素又はこれらが行う機能は、デバイスの異なる部分に位置してもよい。例えば、タッチ経路ロジック400は、タッチ制御器200の構成要素又は機能として実現されてもよく、オーバレイバッファ406及びレンダリングロジック404は両方ともAP202の構成要素(又は、複数の構成要素)又は機能(又は、複数の機能)として実現されてもよい。
さらに、タッチ制御器200が物理的に別個の構成要素として示されても、本発明の一部の実施形態において、タッチ制御器200は、より大きな集積回路の一部であってもよい。例えば、タッチ制御器は、AP及び/又はDDICと一緒に同じ集積回路内に実現されてもよい。
図5は、本発明の一つの実施形態により、N番目のフレーム中に組み合わせられたディスプレイイメージ510の第1セットを生成するための(例えば、フレームNを生成するための)ビデオイメージ316(又は、ビデオイメージのフレーム)、オーバレイデータ314及びタッチイベント304の組み合わせの概略図である。図5を参照すると、タッチ経路ロジック400は、タッチ制御器からのタッチイベント304をプロセシングし、多数の以前の連続フレーム(例えば、過去のX個のフレーム)に亘って受信されたタッチイベントの下位セット、例えば、連続するタッチイベントのセットの位置の間で内挿(interpolation)及び/又は外挿(extrapolation)することにより推定タッチ経路を生成する。推定タッチ経路は、その後に、タッチ経路ロジック400によりマスクバッファ402内に保存されるマスクデータ500を生成するのに適用される。レンダリングロジックは、マスクデータ500に応じてオーバレイバッファ406内に保存されたオーバレイデータ314をAP202からのフレームNに対するビデオイメージと組み合わせ、オーバレイデータ314及びビデオイメージ316から選択(又は、これらの両方を混合)することにより組み合わせられたディスプレイイメージ510を生成する。
一つの実施形態によれば、マスクデータ500は数値のマトリックスであり、ここで、マトリックス内の位置はディスプレイパネル322内のピクセル(又は、ピクセル)の位置に対応し、マトリックス内の値の相対位置はディスプレイパネル322内のピクセルの相対位置に対応する(例えば、マスクデータ500は、組み合わせられたディスプレイイメージ510内のピクセル位置の2次元マップに対応する2次元マトリックスと見なされることがある)。一つの実施形態によれば、マスクデータ500の値のそれぞれは単一ビットとして表現され、マスクデータマトリックスにおける値の位置は組み合わせられたディスプレイイメージ内の位置に対応する。組み合わせられたディスプレイイメージでオーバレイデータが表示されるべき位置は第1値(例えば、「1」)にセットされた値を有し、オーバレイデータが表示されないべき(例えば、ビデオイメージデータが表示されるべき)位置は異なる第2値(例えば、「0」)にセットされた値を有する。
本発明の一つの実施形態によれば、マスクデータ500における数値のそれぞれは多数のビット(例えば、8ビット)により表現され、ここで、マスクデータ500の数値はディスプレイ内のそれぞれの場所におけるオーバレイデータの「透明度(transparency)」を称する。本願では、用語「透明度」は、オーバレイデータ314及びビデオイメージ316を混合(例えば、併合)して組み合わせられたディスプレイイメージ510に、オーバレイデータ314及びビデオイメージ316の両方の特性を含ませることを示す。
レンダリングロジック404によりマスクバッファ402を用いることがより詳細に後述される。
一つの実施形態において、それぞれのビデオフレームに対して、タッチ経路ロジック400は、固定された数のビデオフレームに対応するタッチイベントの下位セットに基づいて推定タッチ経路を生成する。
他の実施形態において、ビデオフレームの数は、AP202からのディスプレイ遅延と一致するように構成可能である。
他の実施形態において、タッチ経路ロジック400は、可変する数のビデオフレームに対するタッチ経路を生成する。ビデオフレームの数は、AP202からの過去のビデオイメージ316に基づいて外部ロジックから決定される。
パラメータのセット312は、経路が生成されるときに推定タッチ経路の特性を統制する。これらのパラメータは、起動デフォルト(start−up default)を有していてもよいが、ソフトウェア又は他の手段によりランタイム中に必要に応じて調整されてもよい。これらのパラメータは下記を備えるが、これに制限されない:生成される経路の幅;単一の直線セグメント及び曲線のように生成されるラインセグメントのスタイル;経路が許容されるディスプレイの領域(例えば、活性描画エリア);及びレンダリング動作のスタイル(例えば、アンチエイリアシング(antialiasing)動作、スムージング(smoothing)動作及び透明化)。
例えば、本発明の実施形態が描画用ソフトウェアアプリケーション(例えば、デジタルスケッチブック)の状況で用いられるとき、組み合わせられたディスプレイイメージ510の一部であるオーバレイイメージセグメント508(また、コンピューティングされた部分104と称されることがある)は、単に活性描画エリアに対応するディスプレイの部分に適用される。オーバレイシステム310は、一般に、活性描画エリアの外部にあるディスプレイの部分に亘ってオーバレイデータを適用しない。このように、パラメータ312は、推定タッチ経路を活性描画エリアに対応するディスプレイの部分に制限するようにセットされてもよい。他の例において、パラメータ312は、描画されたラインのライン幅を備えていてもよい。タッチ経路ロジック400は、AP202からのAP生成ライン(又は、イメージセグメント)に先立って、マスクデータ500に前記ラインの形状をレンダリングするためにこのパラメータをタッチイベント304からの圧力データと併用するはずである(また、イメージセグメント506は、ディスプレイライン100と称されることがある)。
ビデオイメージ316のそれぞれのピクセルがレンダリングロジック404によりプロセシングされるとき、レンダリングロジック404はマスクデータ内の値の位置(例えば、マトリックス内の位置)がビデオイメージ316内のピクセルの場所に対応するようなマスクデータ500における値を検索し、所望の視覚効果(例えば、透明及び/又はアンチエイリアシング)を達成するためにマスクデータ500内の値に応じてビデオイメージ316のピクセル及びオーバレイデータ314を混合したりビデオイメージ316のピクセルをオーバレイデータ314に代替したりし、オーバレイデータ314又はビデオイメージ316のピクセル又はこれらの混合をピクセル駆動信号320によりディスプレイパネル322に出力する。
例えば、本発明の代替の実施形態において、レンダリングロジック404のレンダリング動作は、マスクデータ500における値により規定されるように、単一ビットを用いて明示される。レンダリング動作は、組み合わせられたディスプレイイメージ510内のピクセルの位置に対応するマスクデータ500内の位置における値に基づいて各ピクセルに対するオーバレイデータ314であるか、あるいは、ビデオイメージ316であるようにレンダリングロジックの出力を選択する。
本発明の一つの実施形態において、マスクデータ500の値の数(又は、大きさ)は、ビデオイメージ316の一つのフレーム内のピクセルの数と同様であり、これは、結果的に、組み合わせられたディスプレイイメージ510内のピクセルの数と同様である。このため、マスクデータ500におけるそれぞれの値及びビデオイメージ316のそれぞれのピクセルの間には一対一の関係が存在する。すなわち、レンダリングロジック404の代替の実施形態は、マスクデータ500内のそれぞれの値をビデオイメージ316内の対応するピクセルと整合させ、ビデオイメージ316のピクセル又はオーバレイデータ314をディスプレイパネル322に出力することにより行われる。例えば、一つの実施形態において、レンダリングロジック404は、マスクデータ500のそれぞれの値により繰り返す。0の値がマスクデータ500内の特定の位置に存在すれば、レンダリングロジック404は、ビデオイメージ316の対応するピクセルを出力する。一方、1の値がマスクデータ500内の特定の位置に存在すれば、レンダリングロジックはオーバレイデータ314を出力する。繰り返しプロセスの結果として、レンダリングロジック404は、ピクセル駆動信号320で表現されるような組み合わせられたディスプレイイメージ510をディスプレイパネル322に出力する。
本発明の他の実施形態において、マスクデータ500における値の数は、ビデオイメージ316のフレーム内のピクセルの数よりも小さいことがある。このため、マスクデータ500におけるそれぞれの値がビデオイメージ500のピクセルと一対多の関係を有することにより、マスクデータ500における値がビデオイメージ316の多数のピクセルと対応し、これにより、マスクデータ500の大きさが縮小されてマスクバッファ402のメモリ要件が低減される。
しかしながら、本発明の実施形態はこれに制限されない。例えば、本発明の代替の実施形態において、レンダリングロジック404のレンダリング動作は、マスクデータ500における値により規定されるように多数のビットを用いて明示される。例えば、マスクデータ500における値は、レンダリングロジック404によりレンダリングされる混合のレベル(例えば、透明度のレベル)を識別することができる。他の例において、レンダリングロジック404により多数のレンダリング動作が支援される場合、マスクデータ500における値の1以上のビットは、所望のレンダリング動作を規定するのに用いられ、これに対し、他のビットは前記レンダリング動作の仕様を調整するのに用いられる。レンダリングロジック404は、エッジ向上(edge−enhance)、ダッジ(dodge)(明るくする)、バーン(暗くする)などのように、ビデオイメージ316で搬送される情報及びオーバレイデータ314で搬送される情報の間の様々なレンダリング動作を行うことができる。他の実施形態において、レンダリング動作は、ビデオイメージ316の部分のカラー又は白色度(luminosity)を変更することにより、透明カラーリング(又は、ハイライター(highlighter))効果又はアルファ合成(alpha compositing)効果を発生することができる。
レンダリングロジック404は2つの入力を受信するが、第1入力はAP202からのビデオイメージ316を備え、第2入力はオーバレイバッファ406からのオーバレイデータ314を備える。オーバレイバッファ406は、レンダリングロジック404によりプロセシングされるオーバレイデータ314を保存する。オーバレイデータ314は、AP202により提供されるか、あるいは、オーバレイシステム310で内部的に生成され、ここで、オーバレイデータ314の特性はレンダリングロジック404の所望の出力により決定される。一つの実施形態において、オーバレイデータ314の特性(例えば、外形)は、ディスプレイされたライン100に沿ってビデオイメージ316の特性(例えば、外形)に整合されることにより、マスクデータ500によりレンダリングされるとき、組み合わせられたディスプレイイメージ510は、イメージセグメント506及びオーバレイイメージセグメント508間の切れのない切り換えを備えることになる。これらの特性は、カラーを備えていてもよい。例えば、アプリケーションソフトウェアが黒いラインを描画すれば、オーバレイデータ314はソフトウェアが描画したラインと同じ黒いカラー(例えば、ピクセルが全て黒いビットマップイメージ)を備えるためにAP202により提供されるか、あるいは、オーバレイシステム310により内部的に生成されるはずである。レンダリングロジック404は、マスクデータ500及びオーバレイデータ314により決定されるように、AP202からのイメージセグメント506(例えば、ソフトウェアが描画したライン)及びオーバレイイメージセグメント508を隣接させることにより形成される黒いラインを備える組み合わせられたディスプレイイメージ510を出力するはずである。また、オーバレイデータ314は、テクスチャ化又はカラー化されてもよく、ビットマップイメージデータを備えていてもよい。オーバレイデータ314のコンテンツは時間に対して動的であってもよく、AP202により更新されてもよく、DDIC204内のメカニズムにより更新されてもよい。さらに、コンテンツは、大きさ及び形状において動的であってもよい。
本発明の一つの実施形態において、多数のオーバレイを表現する複数の異なるオーバレイデータ314のセットはオーバレイバッファ406内に保存されてもよく、例えば、それぞれのセットは異なるカラー、異なるイメージ又は異なるテクスチャを有する。このオーバレイデータ314のセットは、本願で「ページ(page)」として称されることがある。それらの実施形態において、また、マスクデータ500内の値は、レンダリングロジック404がオーバレイデータ314の特定のページを識別し、レンダリング動作中に単に識別されたページのみを用いることを可能にする情報を備えていてもよい。このように、一部の実施形態において、マスクデータ500の値は、レンダリングロジック404がレンダリング動作中にオーバレイデータ314の異なるページの間で切り換えることが可能なようにオーバレイデータ314のページに対するインデックスを備える。
本発明の一つの実施形態において、オーバレイデータ314のそれぞれのページの値の数(又は、大きさ)は、ビデオイメージ316の一つのフレーム内のピクセルの数と同様であり、これは、結果的に、組み合わせられたディスプレイイメージ510内のピクセルの数と同様である。このため、オーバレイデータ314のそれぞれのページのそれぞれの値及びビデオイメージ316のそれぞれのピクセルの間には一対一の関係が存在する。
本発明の他の実施形態において、オーバレイデータ314のそれぞれのページの値の数(又は、大きさ)は、ビデオイメージ316のフレーム内のピクセルの数よりも小さいことがある。このため、オーバレイデータ314のそれぞれのページのそれぞれの値がビデオイメージ316のピクセルと一対多の関係を有することによりオーバレイデータ314のそれぞれのページの値がビデオイメージ316の多数のピクセルと対応し、これにより、オーバレイデータ314の大きさが縮小されてオーバレイバッファ406のメモリ要件が低減される。例えば、一部の実施形態において、オーバレイデータ314は、RGB(red、green、blue)カラー値のような単一のカラー値を有し、ここで、全体のオーバレイイメージ(又は、オーバレイイメージセグメント)508は、前記単一のカラー値として描画される。他の実施形態において、オーバレイデータ314の異なるページは、単一のカラー(例えば、異なるカラー)に対応する単一値である。さらに他の実施形態において、単一値は、オーバレイデータ314内の他の値又はビットマップイメージを有する他のページと混在(intermingle)されてもよい。
図6は、本発明の一つの実施形態により、N+1番目のフレーム中に組み合わせられたディスプレイイメージ510'の第2セットを生成するための(例えば、フレームN+1を生成するための)ビデオイメージ316'、オーバレイデータ314及びタッチ経路304'の組み合わせに対する概略図である。後続するフレームにおいて(例えば、Nが組み合わせられたディスプレイイメージ510の第1セットに対応するフレームの場合、フレームN+1において)、AP202からのビデオイメージ316'はフレームNでディスプレイされなかった(例えば、図5に示すようにビデオイメージ316で示されなかった)イメージセグメント600を備える。さらに、フレームN+1中に、タッチ経路ロジック400は、タッチイベント305'から、図5に示すマスク500の値とは異なる値のセットを有する異なるマスク500'を計算する。このように、レンダリングロジック404は、マスクデータ500'に応じたAP202からのビデオイメージ315'及びオーバレイデータ314の合成である組み合わせられたディスプレイイメージ506'を出力する。
図7は、本発明の一つの実施形態により組み合わせられたディスプレイイメージを生成するためにオーバレイデータをビデオイメージと組み合わせる方法を例示するフローチャートである。図7を参照すると、本発明の一つの実施形態によれば、動作702において、タッチイベントが外部ソース(例えば、タッチセンサーパネル)から受信される。タッチ経路(又は、推定タッチ経路)は、動作704においてタッチイベントの間で内挿又は外挿することによりタッチイベントから生成され、ここで、内挿方法は、例えば、組み合わせられたディスプレイイメージのオーバレイイメージセグメント508の幅、スタイル、直線又は曲線領域及びカラーを構成するパラメータにより調整されてもよい。
マスクデータ500は、動作706においてタッチ経路から生成され、このタッチ経路において、マスクデータ500の値の相対位置はディスプレイパネルのピクセルの相対位置に対応し、これらのマスクデータ500の値は、組み合わせられたディスプレイイメージの対応するピクセルがオーバレイバッファ406からのオーバレイデータ又はAPからのビデオイメージ又はこれらの混合された組み合わせを備えなければならないかを示す。マスクデータ500は、マスクバッファ402に保存される。動作708において、マスクデータ500はマスクバッファ402から検索され、ここで検索される値はレンダリングロジックにより現在プロセシングされているピクセルの位置に対応するマスクデータ500内の位置に配置される。
動作710において、ディスプレイパネル内で現在プロセシングされているピクセルの位置に対応するマスクデータ500の値は、オーバレイバッファ406からのオーバレイデータ又はAPからのビデオイメージ又はこれらの混合を選択的に出力するのに用いられる。
動作712において、組み合わせられたディスプレイイメージは、ビデオイメージと合成されているオーバレイデータ314をディスプレイするために出力されてディスプレイパネルに供給される。
このように、本発明の実施形態は、類似の高待ち時間のループ内に低待ち時間のループを取り込むことにより全体のシステム待ち時間を低減するシステム及び方法を提供する。
低待ち時間のディスプレイイメージは、タッチ経路から生成されるマスクデータ500からの情報、オーバレイバッファからのオーバレイデータ314及びAPからの高待ち時間のビデオイメージを組み合わせることにより生成される。タッチ経路は、経時的に記録されるタッチイベント(例えば、タッチ制御器からの出力)から計算される。オーバレイデータ314は、APにより提供されてもよく、オーバレイシステムで生成されてもよい。
カラー、サイズ(例えば、幅)、持続性、シェーディング(shading)及びタイミングを備えるがこれに制限されないオーバレイ特性は、動的に調整可能である。これらの調整はAPによりパラメータのセットとして提供されるか、あるいは、例えば、APからのビデオイメージを分析することによりオーバレイシステムの内部から導き出される。さらに、前記調整は、タッチ行為により決定される。例えば、結果的なラインの幅は、タッチセンサーパネルに加えられる圧力に応じて調整される(例えば、幅パラメータは、タッチイベントの測定された圧力に比例する)。
ディスプレイイメージは、オーバレイシステムによりマスクデータ500を介して生成され、これは、タッチ経路から計算される。マッピング及び大きさ調整パラメータはAPにより提供されてもよく、あるいは、例えば、タッチイベント及びAPからのビデオイメージを分析することによりオーバレイシステム内で計算されてもよい。
オーバレイデータは、レンダリングロジックによりAPからのビデオイメージとピクセルレベルで併合されてもよい。一つの実施形態において、ビデオイメージからのピクセル特性は、マスクデータの値に応じてオーバレイデータからのピクセル特性により代替される。他の実施形態において、新たなピクセル特性は、ビデオイメージ及びオーバレイデータのそれぞれのピクセル特性の混合に基づいて製作される。
たとえ本発明が特定の例示的な実施形態と結び付けられて記述されたとしても、本発明はこれらの開示された実施形態に制限されるものではなく、むしろ、添付の請求項及びその等価の思想及び範囲内に含まれる様々な変形及び等価の配列を包括するように意図されることが理解されるべきである。

Claims (44)

  1. システムにおいて、
    複数のタッチイベントを受信し、前記タッチイベントに基づいて出力を生成するように構成されるタッチ経路ロジックと、
    レンダリングロジックと、
    を備え、
    前記レンダリングロジックは、
    ビデオイメージを受信し、
    前記タッチ経路ロジックの出力を受信し、
    組み合わせられたディスプレイイメージを生成するために前記タッチ経路ロジックの出力に応じて前記ビデオイメージを前記オーバレイデータと組み合わせ、
    前記組み合わせられたディスプレイイメージを出力するように構成されるシステム。
  2. 前記ビデオイメージはディスプレイされたラインを備え、前記オーバレイデータの特性は前記ディスプレイされたラインの特性と整合される請求項1に記載のシステム。
  3. 前記特性は、カラーを備える請求項2に記載のシステム。
  4. 前記タッチ経路ロジックはアプリケーションプロセッサの構成要素であり、前記アプリケーションプロセッサは前記ビデオイメージを生成するように構成される請求項1に記載のシステム。
  5. 前記タッチ経路ロジックは、ディスプレイ駆動機インターフェース制御器の構成要素であり、前記ディスプレイ駆動機インターフェース制御器は、アプリケーションプロセッサから前記ビデオイメージを受信し、前記組み合わせられたディスプレイイメージをディスプレイパネルに供給するように構成される請求項1に記載のシステム。
  6. 前記タッチ経路ロジックは、タッチセンサーパネルに組み付けられるタッチ制御器の構成要素であり、前記タッチ制御器は、前記タッチセンサーパネルから複数のタッチ信号を受信し、前記複数のタッチイベントを生成するように構成される請求項1に記載のシステム。
  7. 前記タッチ経路ロジックは、タッチセンサーパネルから前記タッチイベントを受信し、前記受信されたタッチイベントに応じてマスクデータを生成するように構成され、前記マスクデータは、数値のマトリックスを備え、前記数値のそれぞれは、前記組み合わせられたディスプレイイメージを製作するために前記レンダリングロジックの動作を識別し、
    前記マトリックス内の数値の位置は、前記組み合わせられたディスプレイイメージ内のピクセルの位置に対応する請求項1に記載のシステム。
  8. 前記レンダリングロジックは、前記組み合わせられたディスプレイイメージ内のそれぞれのピクセル別に、前記マスクデータ内の対応する位置における値に応じて前記ビデオイメージの対応するピクセル又は前記オーバレイデータを出力するか否かを決定することにより、前記ビデオイメージを前記オーバレイデータと組み合わせるように構成される請求項7に記載のシステム。
  9. 前記レンダリングロジックは、前記組み合わせられたディスプレイイメージ内のそれぞれのピクセル別に、前記マスクデータ内の対応する位置における値に応じて前記ビデオイメージの対応するピクセル及び前記オーバレイデータを混合する方法を決定することにより、前記ビデオイメージを前記オーバレイデータと組み合わせるように構成される請求項7に記載のシステム。
  10. 前記混合は、エッジ向上動作、ダッジ動作、バーン動作又はアルファ合成効果である請求項9に記載のシステム。
  11. 前記マスクデータの数値のそれぞれは、前記組み合わせられたディスプレイイメージ内の正確に一つのピクセルに対応する請求項7に記載のシステム。
  12. 前記マスクデータの数値のそれぞれは、前記組み合わせられたディスプレイイメージ内の1以上のピクセルに対応する請求項7に記載のシステム。
  13. 前記オーバレイデータは複数のページを備え、
    前記マスクデータは前記複数のページのうちの少なくとも一つを識別する情報を備える請求項7に記載のシステム。
  14. 前記タッチ経路ロジックは、
    パラメータを受信し、
    前記タッチイベントに応じて推定タッチ経路を計算し、
    前記推定タッチ経路及び前記パラメータに応じて前記マスクデータを生成するようにさらに構成され、
    前記パラメータは、マスク領域の位置を制御したり、前記推定タッチ経路の幅、スタイル又は形状を制御したりする請求項7に記載のシステム。
  15. 前記ビデオイメージを生成するように構成されるアプリケーションプロセッサをさらに備え、
    前記レンダリングロジックは、前記アプリケーションプロセッサの構成要素である請求項1に記載のシステム。
  16. 前記レンダリングロジックは、前記タッチイベントの下位セットに基づいて前記ビデオイメージを前記オーバレイデータと組み合わせるようにさらに構成され、前記下位セットは、固定された数のビデオイメージに対応する請求項1に記載のシステム。
  17. 前記レンダリングロジックは、前記ビデオイメージを前記レンダリングロジックに供給するように構成されるアプリケーションプロセッサにより導入される遅延に対応する多数のビデオイメージに対応するタッチイベントの下位セットに基づいて前記ビデオイメージを前記オーバレイデータと組み合わせるようにさらに構成される請求項1に記載のシステム。
  18. 前記レンダリングロジックは、前記ビデオイメージを前記レンダリングロジックに供給するように構成されるアプリケーションプロセッサの以前のレンダリングされた出力から計算される複数のビデオイメージに対応するタッチイベントの下位セットに基づいて前記ビデオイメージを前記オーバレイデータと組み合わせるようにさらに構成される請求項1に記載のシステム。
  19. 前記オーバレイデータは、ビットマップイメージを備える請求項1に記載のシステム。
  20. 前記オーバレイデータは、単一のカラー値を有する請求項1に記載のシステム。
  21. 前記レンダリングロジックは、アプリケーションプロセッサからの入力なしに前記オーバレイデータを生成するように構成される請求項1に記載のシステム。
  22. 前記レンダリングロジックは、アプリケーションプロセッサから供給されるデータ及び前記システム内部のデータを用いて前記オーバレイデータを生成するように構成される請求項1に記載のシステム。
  23. 前記レンダリングロジックは、アプリケーションプロセッサから前記オーバレイデータを受信するように構成される請求項1に記載のシステム。
  24. 前記タッチイベントは、ポインティングツール及びタッチ入力パネル間の相互作用の結果として発生される請求項1に記載のシステム。
  25. タッチ入力に視覚的なフィードバックを提供する方法において、
    ディスプレイに組み付けられたタッチセンサーパネルから複数のタッチイベントを受信するステップと、
    ビデオイメージを受信するステップと、
    組み合わせられたディスプレイイメージを生成するために前記タッチイベントに応じて前記ビデオイメージをオーバレイデータと組み合わせるステップと、
    前記組み合わせられたディスプレイイメージを前記ディスプレイに供給するステップと、
    を含む方法。
  26. 前記ビデオイメージは、ディスプレイされたラインを備え、
    前記オーバレイデータの特性は、前記ディスプレイされたラインの特性と整合する請求項25に記載の方法。
  27. パラメータを受信するステップと、
    前記タッチイベントに応じて推定タッチ経路を計算するステップと、
    をさらに含み、
    前記ビデオイメージは、前記推定タッチ経路及び前記パラメータに応じて前記オーバレイデータと組み合わせられ、
    前記パラメータは、前記組み合わせられたディスプレイイメージにおけるオーバレイデータの位置を制御し、前記推定タッチ経路の幅、スタイル又は形状を制御する請求項25に記載の方法。
  28. 前記タッチイベントに応じて推定タッチ経路を計算するステップをさらに含み、
    前記ビデオイメージは、前記推定タッチ経路に応じて前記オーバレイデータと組み合わせられ、
    前記推定タッチ経路は、固定された数のフレームに対応するタッチイベントの下位セットに基づいて計算される請求項25に記載の方法。
  29. 前記タッチイベントに応じて推定タッチ経路を計算するステップをさらに含み、
    前記ビデオイメージは、前記推定タッチ経路に応じて前記オーバレイデータと組み合わせられ、
    前記推定タッチ経路は、アプリケーションプロセッサにより導入される遅延に対応する複数のフレームに対応するタッチイベントの下位セットに基づいて計算される請求項25に記載の方法。
  30. 前記タッチイベントに応じて推定タッチ経路を計算するステップをさらに含み、
    前記ビデオイメージは、前記推定タッチ経路に応じて前記オーバレイデータと組み合わせられ、
    前記推定タッチ経路は、アプリケーションプロセッサの以前のレンダリングされた出力から計算される複数のフレームに対応するタッチイベントの下位セットに基づいて計算される請求項25に記載の方法。
  31. 前記オーバレイデータは、ビットマップイメージを備える請求項25に記載の方法。
  32. 前記オーバレイデータは、単一のカラー値を有する請求項25に記載の方法。
  33. アプリケーションプロセッサからの入力なしに前記オーバレイデータを生成するステップをさらに含む請求項25に記載の方法。
  34. アプリケーションプロセッサから供給されるデータ及び内部データを用いて前記オーバレイデータを生成するステップをさらに含む請求項25に記載の方法。
  35. アプリケーションプロセッサから前記オーバレイデータを受信するステップをさらに含む請求項25に記載の方法。
  36. 前記組み合わせられたディスプレイイメージを生成するために前記タッチイベントに応じて前記ビデオイメージを前記オーバレイデータと組み合わせるステップは、
    前記タッチイベントに基づいてマスクデータを生成するステップであって、前記マスクデータは数値のマトリックスを備え、前記数値のそれぞれは前記組み合わせられたディスプレイイメージを製作するための動作を識別する、前記生成するステップを含み、
    前記マトリックス内の数値の位置は、前記組み合わせられたディスプレイイメージ内のピクセルの位置に対応する請求項25に記載の方法。
  37. 前記組み合わせられたディスプレイイメージ内のそれぞれのピクセル別に、前記マスクデータでの対応する位置における値に応じて前記ビデオイメージの対応するピクセル又は前記オーバレイデータを出力するか否かを決定するステップをさらに含む請求項36に記載の方法。
  38. 前記組み合わせられたディスプレイイメージ内のそれぞれのピクセル別に、前記マスクデータでの対応する位置における値に応じて前記ビデオイメージの対応するピクセル及び前記オーバレイデータを混合する方法を決定するステップをさらに含む請求項36に記載の方法。
  39. 前記混合は、エッジ向上動作、ダッジ動作、バーン動作又はアルファ合成効果である請求項38に記載の方法。
  40. 前記マスクデータの数値のそれぞれは、前記組み合わせられたディスプレイイメージ内の正確に一つのピクセルに対応する請求項36に記載の方法。
  41. 前記マスクデータの数値のそれぞれは、前記組み合わせられたディスプレイイメージ内の1以上のピクセルに対応する請求項36に記載の方法。
  42. 前記オーバレイデータは複数のページを備え、
    前記マスクデータは前記複数のページのうちの少なくとも一つを識別する情報を備える請求項36に記載の方法。
  43. 前記タッチイベントは、ポインティングツール及び前記タッチ入力パネル間の相互作用の結果として発生される請求項25に記載の方法。
  44. タッチセンサーパネルと、アプリケーションプロセッサ及びディスプレイを備えるディスプレイデバイス上に描画される経路に応答してフィードバックを提供する加速器において、
    前記加速器は、
    プロセッサと、
    内部に命令が保存されるメモリと、
    を備え、
    前記命令は、前記プロセッサにより起動されるとき、前記プロセッサに、
    前記アプリケーションプロセッサからレンダリングされたビデオフレームを受信させ、
    前記タッチセンサーパネルから複数のタッチ信号を受信させ、
    前記タッチ信号に基づいてタッチ経路を決定させ、
    更新されたビデオフレームを生成するために前記タッチ経路及び保存されたオーバレイデータに基づいて前記レンダリングされたビデオフレームを更新させ、
    前記更新されたビデオフレームを前記ディスプレイに出力させる加速器。
JP2014084427A 2013-04-22 2014-04-16 イメージオーバレイを用いてディスプレイ遅延を低減する方法及び装置 Active JP6560484B2 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201361814750P 2013-04-22 2013-04-22
US61/814,750 2013-04-22
US14/226,776 2014-03-26
US14/226,776 US9383840B2 (en) 2013-04-22 2014-03-26 Method and apparatus to reduce display lag using image overlay

Publications (3)

Publication Number Publication Date
JP2014216013A true JP2014216013A (ja) 2014-11-17
JP2014216013A5 JP2014216013A5 (ja) 2017-06-15
JP6560484B2 JP6560484B2 (ja) 2019-08-14

Family

ID=50884662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014084427A Active JP6560484B2 (ja) 2013-04-22 2014-04-16 イメージオーバレイを用いてディスプレイ遅延を低減する方法及び装置

Country Status (7)

Country Link
US (1) US9383840B2 (ja)
EP (1) EP2799961B1 (ja)
JP (1) JP6560484B2 (ja)
KR (1) KR102199355B1 (ja)
CN (1) CN104111793B (ja)
AU (1) AU2014202127B2 (ja)
TW (1) TWI611354B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023219052A1 (ja) * 2022-05-09 2023-11-16 株式会社ワコム コンピュータ

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9483171B1 (en) * 2013-06-11 2016-11-01 Amazon Technologies, Inc. Low latency touch input rendering
US9483176B2 (en) * 2013-07-08 2016-11-01 Samsung Display Co., Ltd. Method and apparatus to reduce display lag of soft keyboard presses
US10156976B2 (en) * 2014-01-30 2018-12-18 Samsung Display Co., Ltd. System and method in managing low-latency direct control feedback
KR102171389B1 (ko) * 2014-04-21 2020-10-30 삼성디스플레이 주식회사 영상 표시 시스템
KR102206047B1 (ko) 2014-09-15 2021-01-21 삼성디스플레이 주식회사 단말 및 디스플레이 지연 감소 방법 및 장치
KR102314110B1 (ko) 2014-09-16 2021-10-18 삼성디스플레이 주식회사 시각화 가속부를 포함하는 터치 표시 장치
EP3217360B1 (en) * 2014-11-07 2022-04-20 Samsung Electronics Co., Ltd. Display device and method of controlling display device
KR102374160B1 (ko) 2014-11-14 2022-03-14 삼성디스플레이 주식회사 스케일링을 사용하여 디스플레이 지연을 감소시키는 방법 및 장치
US9721365B2 (en) * 2014-12-09 2017-08-01 Synaptics Incorporated Low latency modification of display frames
KR102320771B1 (ko) 2015-01-15 2021-11-02 삼성디스플레이 주식회사 데이터 구동회로 및 이를 이용한 표시장치
KR102315890B1 (ko) * 2015-01-22 2021-10-21 삼성디스플레이 주식회사 표시 장치 및 이를 포함하는 전자 기기
US9804709B2 (en) * 2015-04-28 2017-10-31 Samsung Display Co., Ltd. Vector fill segment method and apparatus to reduce display latency of touch events
US10876914B2 (en) * 2016-04-28 2020-12-29 Blancco Technology Group IP Oy Systems and methods for detection of mobile device fault conditions
US10126873B2 (en) * 2016-06-24 2018-11-13 Wacom Co., Ltd. Stroke continuation for dropped touches on electronic handwriting devices
GB2573703B (en) * 2017-03-06 2020-09-09 Mitsubishi Electric Corp Object tracking device and object tracking method
US10147159B2 (en) * 2017-04-07 2018-12-04 Microsoft Technology Licensing, Llc Ink render using high priority queues
US10546399B2 (en) * 2017-11-21 2020-01-28 Microsoft Technology Licensing, Llc Pencil ink render using high priority queues
CN108304091B (zh) * 2018-01-19 2021-08-17 昆山国显光电有限公司 触摸屏控制方法、装置及触摸屏
US12013346B2 (en) 2018-02-19 2024-06-18 Blancco Technology Group IP Oy System and method for detection of mobile device fault conditions
US11704887B2 (en) 2019-09-16 2023-07-18 Assurant, Inc. System, method, apparatus, and computer program product for utilizing machine learning to process an image of a mobile device to determine a mobile device integrity status
US11580627B2 (en) 2020-01-06 2023-02-14 Assurant, Inc. Systems and methods for automatically grading pre-owned electronic devices
KR20210137710A (ko) 2020-05-11 2021-11-18 삼성전자주식회사 빠른 터치 반응성을 가지는 터치 및 디스플레이 제어 장치, 이를 포함하는 디스플레이 장치 및 이의 구동 방법
CN115729435A (zh) * 2021-08-31 2023-03-03 广东艾檬电子科技有限公司 一种实现桌面应用交互及渲染的方法和系统
CN114115688B (zh) * 2021-11-23 2023-08-01 北京字节跳动网络技术有限公司 抑制显示抖动的方法及装置、电子设备、存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289993A (ja) * 1993-03-30 1994-10-18 Matsushita Electric Ind Co Ltd 座標入力表示装置
JP2008140352A (ja) * 2006-11-29 2008-06-19 Ertain Corp コンピュータを用いた簡易毛筆文字描画装置
US20100271313A1 (en) * 2009-04-24 2010-10-28 Yun Shon Low Minimizing Pen Stroke Capture Latency
US20100277429A1 (en) * 2009-04-30 2010-11-04 Day Shawn P Operating a touch screen control system according to a plurality of rule sets
JP2012138049A (ja) * 2010-12-28 2012-07-19 Nec Casio Mobile Communications Ltd 情報端末、文字入力方法、及びプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100540994B1 (ko) 2003-09-23 2006-01-10 송명섭 다중화면 영상표시방법
JP5252427B2 (ja) * 2008-10-01 2013-07-31 株式会社ジャパンディスプレイウェスト 入力装置および表示装置
KR20100122383A (ko) 2009-05-12 2010-11-22 삼성전자주식회사 좌표 예측을 통한 이미지의 출력 속도 향상 방법 및 장치
US9189147B2 (en) * 2010-06-22 2015-11-17 Microsoft Technology Licensing, Llc Ink lag compensation techniques
US9965094B2 (en) * 2011-01-24 2018-05-08 Microsoft Technology Licensing, Llc Contact geometry tests
EP3734404A1 (en) 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Portable device comprising a touch-screen display, and method for controlling same
US9612739B2 (en) 2012-02-02 2017-04-04 Microsoft Technology Licensing, Llc Low-latency touch-input device
US9389717B2 (en) * 2012-12-14 2016-07-12 Microsoft Technology Licensing, Llc Reducing latency in ink rendering
US10127700B2 (en) * 2014-03-31 2018-11-13 Samsung Display Co., Ltd. Generation of display overlay parameters utilizing touch inputs

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06289993A (ja) * 1993-03-30 1994-10-18 Matsushita Electric Ind Co Ltd 座標入力表示装置
JP2008140352A (ja) * 2006-11-29 2008-06-19 Ertain Corp コンピュータを用いた簡易毛筆文字描画装置
US20100271313A1 (en) * 2009-04-24 2010-10-28 Yun Shon Low Minimizing Pen Stroke Capture Latency
US20100277429A1 (en) * 2009-04-30 2010-11-04 Day Shawn P Operating a touch screen control system according to a plurality of rule sets
JP2012138049A (ja) * 2010-12-28 2012-07-19 Nec Casio Mobile Communications Ltd 情報端末、文字入力方法、及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023219052A1 (ja) * 2022-05-09 2023-11-16 株式会社ワコム コンピュータ

Also Published As

Publication number Publication date
EP2799961B1 (en) 2018-11-07
EP2799961A1 (en) 2014-11-05
JP6560484B2 (ja) 2019-08-14
AU2014202127B2 (en) 2019-02-14
AU2014202127A1 (en) 2014-11-06
KR20140126263A (ko) 2014-10-30
US9383840B2 (en) 2016-07-05
US20140313144A1 (en) 2014-10-23
CN104111793A (zh) 2014-10-22
KR102199355B1 (ko) 2021-01-07
TWI611354B (zh) 2018-01-11
TW201510877A (zh) 2015-03-16
CN104111793B (zh) 2019-12-10

Similar Documents

Publication Publication Date Title
JP6560484B2 (ja) イメージオーバレイを用いてディスプレイ遅延を低減する方法及び装置
JP6545996B2 (ja) 映像表示システム
US10127700B2 (en) Generation of display overlay parameters utilizing touch inputs
KR102199357B1 (ko) 터치 이벤트들의 레이턴시를 감소시키는 방법 및 그 시스템
KR102374160B1 (ko) 스케일링을 사용하여 디스플레이 지연을 감소시키는 방법 및 장치
KR102206047B1 (ko) 단말 및 디스플레이 지연 감소 방법 및 장치
EP3089004B1 (en) A vector fill segment method and apparatus to reduce display latency of touch events
KR102315890B1 (ko) 표시 장치 및 이를 포함하는 전자 기기

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181003

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190521

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190719

R150 Certificate of patent or registration of utility model

Ref document number: 6560484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250