JP7284844B1 - 情報処理装置、及び制御方法 - Google Patents

情報処理装置、及び制御方法 Download PDF

Info

Publication number
JP7284844B1
JP7284844B1 JP2022035656A JP2022035656A JP7284844B1 JP 7284844 B1 JP7284844 B1 JP 7284844B1 JP 2022035656 A JP2022035656 A JP 2022035656A JP 2022035656 A JP2022035656 A JP 2022035656A JP 7284844 B1 JP7284844 B1 JP 7284844B1
Authority
JP
Japan
Prior art keywords
position data
screen
unit
processing unit
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022035656A
Other languages
English (en)
Other versions
JP2023131016A (ja
Inventor
圭一 吉冨
▲強▼ 要
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2022035656A priority Critical patent/JP7284844B1/ja
Priority to US18/168,575 priority patent/US11989372B2/en
Priority to CN202310209866.2A priority patent/CN116737004A/zh
Application granted granted Critical
Publication of JP7284844B1 publication Critical patent/JP7284844B1/ja
Publication of JP2023131016A publication Critical patent/JP2023131016A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04182Filtering of noise external to the device and not generated by digitiser components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04114Touch screens adapted for alternating or simultaneous interaction with active pens and passive pointing devices like fingers or passive pens

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】描画結果の品質を維持しつつ、入力に対する表示の遅延を低減する。【解決手段】情報処理装置は、表示部と、前記表示部の画面上に配置されたタッチセンサ部と、前記タッチセンサ部によって所定の検出間隔で検出された第1検出位置データに基づいて、前記第1検出位置データのノイズ除去して、第2検出位置データを生成するノイズ除去フィルタ部と、入力処理部とを備え、前記入力処理部は、前記第1検出位置データを取得し、複数の前記第1検出位置データに基づいて、予測位置データを生成する予測処理部と、前記第2検出位置データと、前記予測位置データとに基づいて、前記画面上の移動軌跡を前記表示部に表示させた後、前記予測位置データに対応する前記第2検出位置データを取得した場合に、前記予測位置データを前記第2検出位置データに置き換えて、前記画面上の移動軌跡を前記表示部に表示させる表示処理部とを備えるである。【選択図】図3

Description

本発明は、情報処理装置、及び制御方法に関する。
近年、タブレット端末やパーソナルコンピュータなどの情報処理装置では、手書き入力を行う入力デバイスを備えるものがある。このような入力デバイスでは、入力に対する表示の遅延を低減するために、予測した入力を表示する技術が知られている(例えば、特許文献1を参照)。
米国特許第9529525号明細書
ところで、手書き入力において、入力に対する表示の遅延を示す入力レスポンスの他に、描画した線の滑らかさ示す描画品質が、重要な要素である。従来の情報処理装置では、描画品質を向上しようとしてノイズ除去フィルタによる処理を行うと、処理量が増加して、入力に対する表示の遅延が大きくなるという課題がある。また、ノイズ除去フィルタによる遅延分を補おうとすると大きな予測が必要になり、予測位置と、実際の入力軌跡とのずれが大きくなるという問題があった。このように、従来の情報処理装置では、描画結果の品質を維持しつつ、入力に対する表示の遅延を低減することが困難であった。
本発明は、上記問題を解決すべくなされたもので、その目的は、描画結果の品質を維持しつつ、入力に対する表示の遅延を低減することができる情報処理装置、及び制御方法を提供することにある。
上記問題を解決するために、本発明の一態様は、表示部と、前記表示部の画面上に配置され、前記画面上における物体との接触を検出するタッチセンサ部と、操作媒体が前記画面上に接触することで、前記タッチセンサ部によって所定の検出間隔で検出された前記画面上の第1検出位置データを取得し、複数の前記第1検出位置データに基づいて、前記第1検出位置データのノイズ除去して、第2検出位置データを生成するノイズ除去フィルタ部と、前記ノイズ除去フィルタ部が生成した前記第2検出位置データを取得し、前記第2検出位置データに基づいて、前記操作媒体が前記画面上に接触して移動した前記画面上の移動軌跡を前記表示部に表示させる入力処理部とを備え、前記入力処理部は、前記第1検出位置データを取得し、複数の前記第1検出位置データに基づいて、前記操作媒体の予測移動位置を示す予測位置データを生成する予測処理部と、前記第2検出位置データと、前記予測位置データとに基づいて、前記画面上の移動軌跡を前記表示部に表示させた後、前記予測位置データに対応する前記第2検出位置データを取得した場合に、前記予測位置データを前記第2検出位置データに置き換えて、前記画面上の移動軌跡を前記表示部に表示させる表示処理部とを備える情報処理装置である。
また、本発明の一態様は、上記の情報処理装置において、前記入力処理部は、前記第1検出位置データと、前記第2検出位置データとを切り替えて、第3検出位置データとして、前記予測処理部に供給する切替処理部を備え、前記予測処理部は、前記切替処理部から供給された複数の前記第3検出位置データに基づいて、前記操作媒体の予測移動位置を示す予測位置データを生成するようにしてもよい。
また、本発明の一態様は、上記の情報処理装置において、前記切替処理部は、前記操作媒体による前記画面上の移動速度に応じて、前記第1検出位置データと、前記第2検出位置データとを切り替えるようにしてもよい。
また、本発明の一態様は、上記の情報処理装置において、前記切替処理部は、前記操作媒体による前記画面上の移動加速度の変化に応じて、前記第1検出位置データと、前記第2検出位置データとを切り替えるようにしてもよい。
また、本発明の一態様は、上記の情報処理装置において、OS(オペレーティングシステム)に基づく処理を実行するメイン制御部を備え、前記メイン制御部は、前記ノイズ除去フィルタ部と、前記入力処理部とを含み、前記ノイズ除去フィルタ部は、前記OSに付加されたデバイスドライバによって実現されるようにしてもよい。
また、本発明の一態様は、上記の情報処理装置において、前記タッチセンサ部は、前記ノイズ除去フィルタ部を備えるようにしてもよい。
また、本発明の一態様は、表示部と、前記表示部の画面上に配置され、前記画面上における物体との接触を検出するタッチセンサ部とを備える情報処理装置の制御方法であって、ノイズ除去フィルタ部が、操作媒体が前記画面上に接触することで、前記タッチセンサ部によって所定の検出間隔で検出された前記画面上の第1検出位置データを取得し、複数の前記第1検出位置データに基づいて、前記第1検出位置データのノイズ除去して、第2検出位置データを生成するノイズ除去ステップと、入力処理部が、前記ノイズ除去ステップによって生成された前記第2検出位置データを取得し、前記第2検出位置データに基づいて、前記操作媒体が前記画面上に接触して移動した前記画面上の移動軌跡を前記表示部に表示させる入力処理ステップとを含み、前記入力処理部は、前記入力処理ステップにおいて、前記第1検出位置データを取得し、複数の前記第1検出位置データに基づいて、前記操作媒体の予測移動位置を示す予測位置データを生成する予測処理と、前記第2検出位置データと、前記予測位置データとに基づいて、前記画面上の移動軌跡を前記表示部に表示させた後、前記予測位置データに対応する前記第2検出位置データを取得した場合に、前記予測位置データを前記第2検出位置データに置き換えて、前記画面上の移動軌跡を前記表示部に表示させる表示処理とを実行する制御方法である。
本発明の上記態様によれば、描画結果の品質を維持しつつ、入力に対する表示の遅延を低減することができる。
第1の実施形態によるタブレット端末の一例を示す外観図である。 第1の実施形態によるタブレット端末の主要なハードウェア構成の一例を示す図である。 第1の実施形態によるタブレット端末の機能構成の一例を示すブロック図である。 第1の実施形態における検出位置の生データと、ノイズ除去後の検出位置データとによる予測位置の違いを説明する図である。 第1の実施形態によるタブレット端末のペン入力処理動作の一例を示す図である。 第1の実施形態によるタブレット端末のペン入力の表示例を示す図である。 第1の実施形態によるタブレット端末の予測処理の切り替え動作の一例を示すフローチャートである。 第1の実施形態によるタブレット端末の予測処理の切り替え動作の一例を示す図である。 第2の実施形態によるタブレット端末の機能構成の一例を示すブロック図である。 第2の実施形態によるタブレット端末のペン入力処理動作の一例を示す図である。
以下、本発明の一実施形態による情報処理装置、及び制御方法について、図面を参照して説明する。
[第1の実施形態]
図1は、本実施形態によるタブレット端末1の一例を示す外観図である。なお、本実施形態において、情報処理装置の一例として、タブレット端末1について説明する。
図1に示すように、タブレット端末1は、筐体CS1の片方の主面に、タッチスクリーン20が設置されており、ペン30を用いて、例えば、ペイントソフトなどのアプリケーションプログラムを実行させる。
タッチスクリーン20は、表示部21と、タッチセンサ部22を備え、表示部21は、表示画面DFに各種情報を表示する。
タッチセンサ部22は、表示部21に重ねて配置されており、ペン30(操作媒体の一例)が、表示部21の表示画面DFに接触することを検出するとともに、ペン30の接触位置を検出する。
なお、タッチスクリーン20、表示部21、及びタッチセンサ部22の詳細については、後述する。
次に、図2を参照して、タブレット端末1の主要なハードウェア構成について説明する。
図2は、本実施形態によるタブレット端末1の主要なハードウェア構成の一例を示す図である。
図2に示すように、タブレット端末1は、プロセッサ11と、メインメモリ12と、フラッシュメモリ13と、タッチスクリーン20と、周辺デバイス23と、オーディオシステム24と、マイク25と、スピーカ26と、ベースバンドチップ27と、無線部28とを備える。
プロセッサ11は、例えば、CPU(Central Processing Unit)11を含むアプリケーションプロセッサである。プロセッサ11は、タブレット端末1の全体を制御する。
メインメモリ12は、プロセッサ11の実行プログラムの読み込み領域として、又は、実行プログラムの処理データを書き込む作業領域として利用される書き込み可能メモリである。メインメモリ12は、例えば、複数個のDRAM(Dynamic Random Access Memory)チップで構成される。この実行プログラムには、OS(Operating System:オペレーティングシステム)、周辺機器類をハードウェア操作するための各種デバイスドライバ、各種サービス/ユーティリティ、アプリケーションプログラム(アプリケーションソフトウェア)、等が含まれる。
フラッシュメモリ13は、例えば、フラッシュEEPROM(Electrically Erasable Programmable Read Only Memory)であり、OS、各種ドライバ、各種サービス/ユーティリティ、アプリケーションプログラム(以下、アプリケーションということがある)、及び各種データを記憶する。
表示部21は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイであり、プロセッサ11から出力された描画データ(表示データ)に基づく表示画面を表示する。
タッチセンサ部22は、表示部21の画面上におけるペン30の操作媒体の位置と、ペン30の画面上への接触と、接触位置を検出する。タッチセンサ部22は、例えば、静電容量方式や電磁誘導方式により、画面上におけるペン30の位置を検出可能である。タッチセンサ部22は、所定の検出間隔でペン30の検出位置データ(生データ)を検出する。
また、タッチセンサ部22は、内部に不図示のCPUと、RAM及びROMなどの記憶部を備えており、記憶部が記憶するファームウェアを、CPUが実行することで、例えば、ペン30の検出位置データのノイズ除去などの各種処理を実行可能である。
周辺デバイス23は、例えば、WLAN(Wireless Local Area Network)モジュール、Bluetooth(登録商標)モジュール、GPS(Global Positioning System)モジュール、及び加速度センサなどのセンサ類、USB(Universal Serial Bus)コネクタ、等である。
オーディオシステム24は、例えば、オーディオIC(Integrated Circuit)であり、音データの入力、記録、再生、出力を行う。オーディオシステム24には、例えば、マイク25と、スピーカ26とが接続されている。オーディオシステム24は、例えば、マイク25が収音した音データを、プロセッサ11又はベースバンドチップ27に出力する。また、オーディオシステム24は、例えば、プロセッサ11又はベースバンドチップ27から取得した音データを音信号に変換して、スピーカ26に出力する。
マイク25は、タブレット端末1の周辺の音を収音する。マイク25は、例えば、他の端末と音声融和する際に、利用者の音声等の音を収音する。
スピーカ26は、タブレット端末1の外部に、各種音を出力する。スピーカ26は、例えば、他の端末と音声融和する際に、他の端末から受信した音を出力(放音)する。
ベースバンドチップ27は、例えば、4G(第4世代移動通信システム)や5G(第5世代移動通信システム)などの無線通信を制御する専用ICである。ベースバンドチップ27は、例えば、無線部28を用いて受信した音声データを、オーディオシステム24を介して、スピーカ26に出力させる。また、ベースバンドチップ27は、例えば、マイク25から収音した音データを、オーディオシステム24を介して取得し、無線部28を用いて、移動通信システムにより出力させる。また、ベースバンドチップ27は、移動通信システムによるデータ通信の入出力データを、プロセッサ11との間でデータ通信する。
無線部28は、移動通信システムによる無線通信を行うための、アンテナを含む無線通信デバイスである。
ペン30は、ペン形状の操作媒体であり、例えば、タッチペン、スタイラスペンなどである。なお、ペン30は、共振回路を備え、共振回路のコイルへの電磁誘導により、電源が供給され、共振回路を利用して、表示部21の画面上におけるペン30の位置やペン角度で検出可能に構成されていてもよい。
次に、図3を参照して、本実施形態によるタブレット端末1の機能構成について説明する。
図3は、本実施形態によるタブレット端末1の機能構成の一例を示すブロック図である。
図3に示すように、タブレット端末1は、メイン制御部10と、タッチスクリーン20と、ペン30と、記憶部40とを備える。
タッチスクリーン20は、表示部21と、タッチセンサ部22とを備える。
記憶部40は、例えば、メインメモリ12又はフラッシュメモリ13により実現される記憶部であり、ペン入力記憶部41を備える。
ペン入力記憶部41は、タッチセンサ部22が検出したペン30の検出位置データを順次記憶する。ペン入力記憶部41は、例えば、後述するノイズ除去フィルタ部111が検出位置の生データ(RAWデータ)をノイズ除去(スムージング処理)したノイズ除去後の検出位置データを記憶する。
メイン制御部10は、例えば、プロセッサ11がメインメモリ12又はフラッシュメモリ13が記憶するプログラムを実行することで実現される機能部であり、OS(例えば、Android(登録商標)など)に基づく各種処理を実行する。メイン制御部10は、ペン入力ドライバ110と、OS120と、入力処理部130を含むアプリケーションAPとを備える。
OS(オペレーティングシステム)120は、例えば、Android(登録商標)などであり、プロセッサ11がメインメモリ12又はフラッシュメモリ13が記憶するOSプログラムを実行することで実現される機能部である。
ペン入力ドライバ110は、タッチスクリーン20(タッチセンサ部22)のペン入力の処理を行うデバイスドライバであり、OSに付加されたデバイスドライバである。ペン入力ドライバ110は、プロセッサ11がメインメモリ12又はフラッシュメモリ13が記憶するOSプログラムを実行することで実現される機能部である。ペン入力ドライバ110は、タッチセンサ部22からペン30の検出位置の生データ(第1検出位置データ)に、ノイズ除去処理を実行したノイズ除去後の検出位置データ(第2検出位置データ)を、OS120を介して、入力処理部130に供給する。
また、ペン入力ドライバ110は、タッチセンサ部22からペン30の検出位置の生データ(第1検出位置データ)を、ノイズ除去後の検出位置データ(第2検出位置データ)とは別に、OS120を介して、入力処理部130に供給する。
ペン入力ドライバ110は、ノイズ除去フィルタ部111を備える。
ノイズ除去フィルタ部111は、タッチセンサ部22からペン30の検出位置の生データ(第1検出位置データ)を取得し、複数の検出位置の生データに基づいて、検出位置の生データのノイズ除去して、ノイズ除去後の検出位置データ(第2検出位置データ)を生成する。なお、ノイズ除去フィルタ部111によるのノイズ除去処理を、スムージング処理ということがある。ノイズ除去フィルタ部111は、ノイズ除去後の検出位置データ(第2検出位置データ)をOS120を介して、入力処理部130に供給する。
アプリケーションAPは、プロセッサ11により実現される機能部であり、例えば、ペイントソフトなどのアプリケーションプログラムをプロセッサ11に実行させることで、ペン入力を含む所定の処理を実行する。アプリケーションAPは、入力処理部130を含んでいる。
入力処理部130は、プロセッサ11がメインメモリ12又はフラッシュメモリ13が記憶するプログラムを実行することで実現される機能部である。入力処理部130は、ノイズ除去フィルタ部111が生成したノイズ除去後の検出位置データを取得し、ノイズ除去後の検出位置データに基づいて、ペン30が画面上に接触して移動した画面上の移動軌跡を表示部21に表示させる。
入力処理部130は、検出位置データの生データ(検出位置の生データ)を、OS120及びペン入力ドライバ110を介して、タッチセンサ部22から取得するとともに、ノイズ除去後の検出位置データを、OS120を介して、ペン入力ドライバ110のノイズ除去フィルタ部111から取得する。
また、入力処理部130は、切替処理部131と、予測処理部132と、表示処理部133とを備える。
切替処理部131は、プロセッサ11がメインメモリ12又はフラッシュメモリ13が記憶するプログラムを実行することで実現される機能部である。切替処理部131は、検出位置の生データと、ノイズ除去後の検出位置データとを切り替えて、予測処理の供給位置検出データ(第3検出位置データ)として、予測処理部132に供給する。
切替処理部131は、ペン30の移動速度及び移動加速度に基づいて、検出位置の生データと、ノイズ除去後の検出位置データとを切り替えて、予測処理部132に供給する。
なお、ペン30の移動速度及び移動加速度に基づく切り替え条件の詳細については後述する。
予測処理部132は、プロセッサ11がメインメモリ12又はフラッシュメモリ13が記憶するプログラムを実行することで実現される機能部である。予測処理部132は、切替処理部131から供給される複数の供給位置検出データ(第3検出位置データ)に基づいて、ペン30の予測移動位置を示す予測位置データを生成する。
予測処理部132は、例えば、切替処理部131から、供給位置検出データとして、出位置の生データが供給される場合に、検出位置の生データを取得し、複数の検出位置の生データに基づいて、ペン30の予測移動位置を示す予測位置データを生成する。
また、予測処理部132は、例えば、切替処理部131から、供給位置検出データとして、ノイズ除去後の検出位置データが供給される場合に、検出位置の生データを取得し、複数のノイズ除去後の検出位置データに基づいて、ペン30の予測移動位置を示す予測位置データを生成する。ここで、図4を参照して、検出位置の生データと、ノイズ除去後の検出位置データとによる予測位置の違いについて説明する。
図4は、本実施形態における検出位置の生データと、ノイズ除去後の検出位置データとによる予測位置の違いを説明する図である。ここでは、ペン30の移動軌跡が曲線である場合の一例について説明する。
図4において、線LN1は、ペン30の実際の移動軌跡を示している。また、図1において、○(白丸)は、検出位置の生データを示し、●(黒丸)は、ノイズ除去後の検出位置データを示している。なお、ノイズ除去処理により、検出位置の生データとノイズ除去後の検出位置データとの間に遅延DLYが発生する。図4に示す例では、ノイズ除去処理に検出位置の生データの3サンプル分の遅延が発生するものとする。
また、図4において、△(白三角)は、検出位置の生データに基づく予測位置データ(予測位置PD1)を示しており、▲(黒三角)は、ノイズ除去後の検出位置データに基づく予測位置データ(予測位置PD2、予測位置PD3)を示している。
図4に示す例では、検出位置の生データに基づく予測位置データ(予測位置PD1)が、ノイズ除去後の検出位置データに基づく予測位置データ(予測位置PD2、予測位置PD3)よりもペン30の実際の移動軌跡である線LN1に近い予測位置になっている。この場合、切替処理部131は、予測処理の供給位置検出データとして、検出位置の生データを、予測処理部132に供給する。
図3の説明に戻り、表示処理部133は、プロセッサ11がメインメモリ12又はフラッシュメモリ13が記憶するプログラムを実行することで実現される機能部である。表示処理部133は、ノイズ除去後の検出位置データと、予測位置データとに基づいて、画面上の移動軌跡を表示部21に表示させた後、予測位置データに対応するノイズ除去後の検出位置データを取得した場合に、予測位置データをノイズ除去後の検出位置データに置き換えて、画面上の移動軌跡を表示部21に表示させる。
なお、表示処理部133は、予測位置データが、検出位置の生データに基づく予測位置データである場合に、ノイズ除去後の検出位置データと、遅延分の検出位置の生データと、検出位置の生データに基づく予測位置データとに基づいて、画面上の移動軌跡を表示部21に表示させる。その後、表示処理部133は、遅延分の検出位置の生データ及び予測位置データに対応するノイズ除去後の検出位置データを取得した場合に、遅延分の検出位置の生データ及び予測位置データをノイズ除去後の検出位置データに置き換えて、画面上の移動軌跡を表示部21に表示させる。
次に、図面を参照して、本実施形態によるタブレット端末1の動作について説明する。
図5は、本実施形態によるタブレット端末1のペン入力処理動作の一例を示す図である。また、図6は、本実施形態によるタブレット端末1のペン入力の表示例を示す図である。
図5に示すように、タブレット端末1のタッチセンサ部22は、まず、ペン入力を検出したか否かを判定する(ステップS102)。タッチセンサ部22は、ペン入力を検出した場合(ステップS101:YES)に、処理をステップS102に進める。また、タッチセンサ部22は、ペン入力を検出していない場合(ステップS101:NO)に、処理をステップS101に戻す。
ステップS102において、タッチセンサ部22は、検出位置データ(検出位置の生データ)を、ペン入力ドライバ110に出力する。
次に、ペン入力ドライバ110は、タッチセンサ部22から受信した検出位置データ(検出位置の生データ)を、切替処理部131に転送する(ステップS103)。
また、ペン入力ドライバ110は、ノイズ除去処理を実行する(ステップS104)。ペン入力ドライバ110のノイズ除去フィルタ部111は、例えば、複数の検出位置の生データに基づいて、ノイズ除去処理を実行し、ノイズ除去後の検出位置データを生成する。
次に、ペン入力ドライバ110は、ノイズ除去後の位置検出データを、表示処理部133に出力する(ステップS105)。
次に、表示処理部133は、ペン30の移動軌跡を表示する(ステップS106)。表示処理部133は、ノイズ除去後の位置検出データを、ペン入力記憶部41に記憶させるとともに、図6(a)の描画線LN11のように、ノイズ除去後の位置検出データによるペン30の移動軌跡を、表示部21に表示させる。
なお、図6に示す例は、ペン入力により曲線が入力された場合の一例である。また、図6において、●(黒丸)は、ノイズ除去後の検出位置データを示している。
また、ペン入力ドライバ110は、ノイズ除去後の位置検出データを、切替処理部131に出力する(ステップS107)。
次に、切替処理部131は、選択処理を実行する(ステップS108)。切替処理部131は、検出位置の生データと、ノイズ除去後の検出位置データとのいずれかを切り替えて選択する。例えば、ペン入力が曲線である場合には、切替処理部131は、検出位置の生データを選択する。
次に、切替処理部131は、切り替え後の検出位置データを予測処理部132に出力する(ステップS109)。
次に、予測処理部132は、予測処理を実行する(ステップS110)。予測処理部132は、切替処理部131から出力された切り替え後の検出位置データに基づいて、予測位置データを生成する。
次に、予測処理部132は、予測位置データを表示処理部133に出力する(ステップS111)。
次に、表示処理部133は、ペン30の予測軌跡を表示する(ステップS112)。表示処理部133は、例えば、図6(b)の描画線LN12のように、予測位置データによるペン30の予測軌跡を、表示部21に表示させる。
なお、図6(b)において、△(白三角)は、検出位置の生データに基づく予測位置PD1を示している。また、表示処理部133は、描画線LN12の代わりに、描画線LN13のように、遅延分の検出位置の生データと、検出位置の生データに基づく予測位置データとに基づいて、ペン30の予測軌跡を表示部21に表示させてもよい。
次に、再び、タッチセンサ部22は、ペン入力を検出したか否かを判定する(ステップS113)。タッチセンサ部22は、ペン入力を検出した場合(ステップS113:YES)に、処理をステップS114に進める。また、タッチセンサ部22は、ペン入力を検出していない場合(ステップS113:NO)に、処理をステップS113に戻す。
ステップS114において、タッチセンサ部22は、検出位置データ(検出位置の生データ)を、ペン入力ドライバ110に出力する。
次に、ペン入力ドライバ110は、タッチセンサ部22から受信した検出位置データ(検出位置の生データ)を、切替処理部131に転送する(ステップS115)。
また、ペン入力ドライバ110は、ノイズ除去処理を実行する(ステップS116)。ペン入力ドライバ110のノイズ除去フィルタ部111は、例えば、複数の検出位置の生データに基づいて、ノイズ除去処理を実行し、ノイズ除去後の検出位置データを生成する。
次に、ペン入力ドライバ110は、ノイズ除去後の位置検出データを、表示処理部133に出力する(ステップS117)。
次に、表示処理部133は、ペン30の移動軌跡を表示する(ステップS118)。ここでは、表示処理部133は、ペン30の予測軌跡から、ペン30の実移動軌跡に置き換えて、表示部21に表示させる。表示処理部133は、ノイズ除去後の位置検出データを、ペン入力記憶部41に記憶させるとともに、図6(c)の描画線LN1のように、ノイズ除去後の位置検出データによるペン30の移動軌跡を、表示部21に表示させる。
なお、ステップS118に続く処理は、ステップS107からステップS112の処理と同様であるため、ここではその説明を省略する。
また、最終的に、ペン入力ドライバ110は、ペン入力記憶部41が記憶するノイズ除去後の位置検出データを、アプリケーションAPに供給する。すなわち、アプリケーションAPでは、ペン30の入力データ(検出位置データ)として、ペン入力記憶部41が記憶するノイズ除去後の位置検出データを用いる。
次に、図7を参照して、本実施形態によるタブレット端末1の予測処理の切り替え動作について説明する。
図7は、本実施形態によるタブレット端末1の予測処理の切り替え動作の一例を示すフローチャートである。
図7に示すように、タブレット端末1の切替処理部131は、まず、ペンサンプルデータを検出したか否かを判定する(ステップS201)。切替処理部131は、例えば、ペンサンプルデータの検出として、検出位置の生データを受信したか否かを判定する。切替処理部131は、検出位置の生データを受信した場合(ステップS201:YES)に、処理をステップS202に進める。また、切替処理部131は、検出位置の生データを受信していない場合(ステップS201:NO)に、処理をステップS201に戻す。
ステップS202において、切替処理部131は、ペン30の加速度(ax、ay)、及びペン30の移動速度vを算出する。切替処理部131は、所定数の検出位置の生データに基づいて、ペン30の画面上の移動速度vを算出するとともに、画面上を移動するペン30のX軸方向の加速度ax及びY軸方向の加速度ayを算出する。
次に、切替処理部131は、加速度axの絶対値及び加速度ayの絶対値のいずれかが、加速度閾値Athより大きい(|ax|>Ath、又は|ay|>Ath)か否かを判定する(ステップS203)。ここで加速度axの絶対値及び加速度ayの絶対値のいずれかが、加速度閾値Athより大きい場合とは、ペン30が急加速、急減速、又は曲線移動した場合に相当する。切替処理部131は、加速度axの絶対値及び加速度ayの絶対値のいずれかが、加速度閾値Athより大きい場合(ステップS203:YES)に、処理をステップS205に進める。また、切替処理部131は、加速度axの絶対値及び加速度ayの絶対値のいずれも、加速度閾値Ath以下である場合(ステップS203:NO)に、処理をステップS204に進める。
ステップS204において、切替処理部131は、移動速度vが速度閾値Vthより大きい(v>Vth)か否かを判定する。切替処理部131は、移動速度vが速度閾値Vthより大きい場合(ステップS204:YES)に、処理をステップS205に進める。また、切替処理部131は、移動速度vが速度閾値Vth以下である場合(ステップS204:NO)に、処理をステップS206に進める。
ステップS205において、切替処理部131は、予測処理に検出位置の生データを出力する設定に切り替える。すなわち、切替処理部131は、検出位置の生データを、予測処理の供給位置検出データとして、予測処理部132に供給する。ステップS205の処理後に、処理をステップS201に戻す。
また、ステップS206において、切替処理部131は、予測処理にノイズ除去後の検出位置データを出力する設定に切り替える。すなわち、切替処理部131は、ノイズ除去後の検出位置データを、予測処理の供給位置検出データとして、予測処理部132に供給する。ステップS206の処理後に、処理をステップS201に戻す。
次に、図8を参照して、本実施形態によるタブレット端末1の予測処理の切り替え動作の具体例について説明する。
図8は、本実施形態によるタブレット端末1の予測処理の切り替え動作の一例を示す図である。なお、図8において、●(黒丸)、〇(白丸)、▲(黒三角)、及び△(白三角)の意味は、上述した図4と同様である。
図8(a)及び図8(b)は、ペン30が等速直線運動で画面上を移動した場合を示しており、図8(a)に示す例は、移動速度が遅い場合(移動速度v≦Vth)を示し、図8(b)に示す例は、移動速度が速い場合(移動速度v>Vth)を示している。
図8(a)に示すように、ペン30の移動が、等速直線運動、且つ、移動速度が遅い場合には、位置検出の生データにより予測処理を行うよりも、ノイズ除去後の位置検出データにより予測処理を行った方が、ペン30の実際の移動軌跡に近くなる。そのため、この場合、切替処理部131は、ノイズ除去後の検出位置データを、予測処理の供給位置検出データとして、予測処理部132に供給する。
また、図8(b)に示すように、ペン30の移動が、等速直線運動、且つ、移動速度が速い場合には、位置検出の生データによる予測処理と、ノイズ除去後の位置検出データにより予測処理との描画品質は、同等であるが、位置検出の生データの方が、ノイズ除去処理分の処理量及び処理遅延を低減できる。そのため、この場合、切替処理部131は、検出位置の生データを、予測処理の供給位置検出データとして、予測処理部132に供給する。
また、図8(c)及び図8(d)は、ペン30が曲線移動で画面上を移動した場合を示しており、加速度axの絶対値及び加速度ayの絶対値のいずれかが、加速度閾値Athより大きい(|ax|>Ath、又は|ay|>Ath)に相当する。また、図8(c)に示す例は、移動速度が遅い場合(移動速度v≦Vth)を示し、図8(d)に示す例は、移動速度が速い場合(移動速度v>Vth)を示している。
図8(c)に示すように、ペン30の移動が、曲線移動、且つ、移動速度が遅い場合には、位置検出の生データにより予測処理を行う方が、ノイズ除去後の位置検出データにより予測処理を行った場合よりも、ペン30の実際の移動軌跡に近くなり、且つ、入力に対する表示の遅延が小さくなる。そのため、この場合、切替処理部131は、検出位置の生データを、予測処理の供給位置検出データとして、予測処理部132に供給する。
また、図8(d)に示すように、ペン30の移動が、曲線移動、且つ、移動速度が速い場合には、位置検出の生データにより予測処理を行う方が、ノイズ除去後の位置検出データにより予測処理を行った場合よりも、ペン30の実際の移動軌跡に近くなり、且つ、入力に対する表示の遅延が小さくなる。そのため、この場合、切替処理部131は、検出位置の生データを、予測処理の供給位置検出データとして、予測処理部132に供給する。
また、図8(e)及び図8(f)は、ペン30が加速して画面上を直線移動した場合を示しており、加速度axの絶対値及び加速度ayの絶対値のいずれかが、加速度閾値Athより大きい(|ax|>Ath、又は|ay|>Ath)に相当する。また、図8(e
)に示す例は、移動速度が遅い場合(移動速度v≦Vth)を示し、図8(f)に示す例は、移動速度が速い場合(移動速度v>Vth)を示している。
図8(e)に示すように、ペン30の移動が、加速直線運動、且つ、移動速度が遅い場合には、位置検出の生データにより予測処理を行う方が、ノイズ除去後の位置検出データにより予測処理を行った場合よりも、ペン30の実際の移動軌跡に近くなり、且つ、入力に対する表示の遅延が小さくなる。そのため、この場合、切替処理部131は、検出位置の生データを、予測処理の供給位置検出データとして、予測処理部132に供給する。
また、図8(f)に示すように、ペン30の移動が、加速直線運動、且つ、移動速度が速い場合には、位置検出の生データにより予測処理を行う方が、ノイズ除去後の位置検出データにより予測処理を行った場合よりも、ペン30の実際の移動軌跡に近くなり、且つ、入力に対する表示の遅延が小さくなる。そのため、この場合、切替処理部131は、検出位置の生データを、予測処理の供給位置検出データとして、予測処理部132に供給する。
なお、ペン30が減速して画面上を直線移動した場合も、上述した図8(e)及び図8(f)と同様になる。
このように、切替処理部131は、ペン30による画面上の移動速度に応じて、位置検出の生データと、ノイズ除去後の検出位置データとを切り替える。具体的に、切替処理部131は、ペン30の画面上の移動速度が所定の閾値(速度閾値Vth)より大きい場合に、位置検出の生データを、予測処理の供給位置検出データとして、予測処理部132に供給する。
また、切替処理部131は、ペン30による画面上の移動加速度に応じて、位置検出の生データと、ノイズ除去後の検出位置データとを切り替える。具体的に、切替処理部131は、ペン30の画面上の移動加速度(加速度ax、加速度ay)の絶対値が所定の閾値(加速度閾値Ath)より大きい場合に、位置検出の生データを、予測処理の供給位置検出データとして、予測処理部132に供給する。
また、切替処理部131は、ペン30の画面上の移動速度が所定の閾値(速度閾値Vth)以下、且つ、ペン30の画面上の移動加速度(加速度ax、加速度ay)の絶対値がいずれも所定の閾値(加速度閾値Ath)以下である場合に、ノイズ除去後の検出位置データを、予測処理の供給位置検出データとして、予測処理部132に供給する。
以上説明したように、本実施形態によるタブレット端末1(情報処理装置)は、表示部21と、タッチセンサ部22と、ノイズ除去フィルタ部111と、入力処理部130とを備える。タッチセンサ部22は、表示部21の画面上に配置され、画面上における物体との接触を検出する。ノイズ除去フィルタ部111は、ペン30(操作媒体)が画面上に接触することで、タッチセンサ部22によって所定の検出間隔で検出された画面上の検出位置の生データ(第1検出位置データ)を取得し、複数の検出位置の生データに基づいて、検出位置の生データのノイズ除去して、ノイズ除去後の検出位置データ(第2検出位置データ)を生成する。入力処理部130は、ノイズ除去フィルタ部111が生成したノイズ除去後の検出位置データを取得し、ノイズ除去後の検出位置データに基づいて、ペン30が画面上に接触して移動した画面上の移動軌跡を表示部21に表示させる。また、入力処理部130は、予測処理部132と、表示処理部133とを備える。予測処理部132は、検出位置の生データを取得し、複数の検出位置の生データに基づいて、ペン30の予測移動位置を示す予測位置データを生成する。表示処理部133は、ノイズ除去後の検出位置データと、予測位置データとに基づいて、画面上の移動軌跡を表示部21に表示させた後、予測位置データに対応するノイズ除去後の検出位置データを取得した場合に、予測位置データをノイズ除去後の検出位置データに置き換えて、画面上の移動軌跡を表示部21に表示させる。
これにより、本実施形態によるタブレット端末1は、検出位置の生データ(第1検出位置データ)に基づく予測位置データを表示することで、ペン30の入力に対する予測位置データのずれを低減できるとともに、入力に対する表示の遅延を低減することができる(例えば、図4を参照)。また、本実施形態によるタブレット端末1は、予測位置データをノイズ除去後の検出位置データに置き換えて、画面上の移動軌跡を表示部21に表示させるため、最終的な描画結果の品質を維持することができる。よって、本実施形態によるタブレット端末1は、描画結果の品質を維持しつつ、入力に対する表示の遅延を低減することができる。
また、本実施形態では、入力処理部130は、切替処理部131を備える。切替処理部131は、検出位置の生データと、ノイズ除去後の検出位置データとを切り替えて、予測処理の供給位置検出データ(第3検出位置データ)として、予測処理部132に供給する。予測処理部132は、切替処理部131から供給された複数の予測処理の供給位置検出データに基づいて、ペン30の予測移動位置を示す予測位置データを生成する。
これにより、本実施形態によるタブレット端末1は、検出位置の生データに基づく予測位置データと、ノイズ除去後の検出位置データに基づく予測位置データとを状況に応じて切り替えて使用することができる。よって、本実施形態によるタブレット端末1は、状況に応じて柔軟に予測処理を切り替えることで、さらに描画結果の品質を維持しつつ、入力に対する表示の遅延を低減することができる。
また、本実施形態では、切替処理部131は、ペン30による画面上の移動速度(例えば、上述した移動速度v)に応じて、検出位置の生データと、ノイズ除去後の検出位置データとを切り替える。
これにより、本実施形態によるタブレット端末1は、ペン30の移動速度に応じて、予測処理を適切に切り替えることができる。
また、本実施形態では、切替処理部131は、ペン30による画面上の移動加速度(例えば、上述した加速度ax、又は加速度ay)に応じて、検出位置の生データと、ノイズ除去後の検出位置データとを切り替える。
これにより、本実施形態によるタブレット端末1は、例えば、等速運動、加速移動、減速移動、及び曲線移動などのペン30の入力に応じて、予測処理を適切に切り替えることができる。
また、本実施形態によるタブレット端末1は、OSに基づく処理を実行するメイン制御部10を備える。メイン制御部10は、ノイズ除去フィルタ部111と、入力処理部130とを含む。ノイズ除去フィルタ部111は、OSに付加されたデバイスドライバによって実現される。
これにより、本実施形態によるタブレット端末1は、例えば、等速運動、加速移動、減速移動、及び曲線移動などのペン30の入力に応じて、予測処理を適切に切り替えることができる。
また、本実施形態では、表示処理部133は、予測位置データが、検出位置の生データに基づく予測位置データである場合に、ノイズ除去後の検出位置データと、遅延分の検出位置の生データと、検出位置の生データに基づく予測位置データとに基づいて、画面上の移動軌跡を表示部21に表示させる。その後、表示処理部133は、遅延分の検出位置の生データ及び予測位置データに対応するノイズ除去後の検出位置データを取得した場合に、遅延分の検出位置の生データ及び予測位置データをノイズ除去後の検出位置データに置き換えて、画面上の移動軌跡を表示部21に表示させる。
これにより、本実施形態によるタブレット端末1は、予測位置データが、検出位置の生データに基づく予測位置データである場合に、予測位置データを含む移動軌跡を、適切に表示部21に表示させることができる。
また、本実施形態による制御方法は、表示部21と、表示部21の画面上に配置され、画面上における物体との接触を検出するタッチセンサ部22とを備えるタブレット端末1の制御方法であって、ノイズ除去ステップと、入力処理ステップとを含む。ノイズ除去ステップにおいて、ノイズ除去フィルタ部111が、ペン30が画面上に接触することで、タッチセンサ部22によって所定の検出間隔で検出された画面上の検出位置の生データ(第1検出位置データ)を取得し、複数の検出位置の生データに基づいて、検出位置の生データのノイズ除去して、ノイズ除去後の検出位置データ(第2検出位置データ)を生成する。入力処理ステップにおいて、入力処理部130が、ノイズ除去ステップによって生成されたノイズ除去後の検出位置データを取得し、ノイズ除去後の検出位置データに基づいて、ペン30が画面上に接触して移動した画面上の移動軌跡を表示部21に表示させる。また、入力処理部130は、入力処理ステップにおいて、予測処理と、表示処理とを実行する。入力処理部130は、予測処理として、検出位置の生データを取得し、複数の検出位置の生データに基づいて、ペン30の予測移動位置を示す予測位置データを生成する。入力処理部130は、表示処理として、ノイズ除去後の検出位置データと、予測位置データとに基づいて、画面上の移動軌跡を表示部21に表示させた後、予測位置データに対応するノイズ除去後の検出位置データを取得した場合に、予測位置データをノイズ除去後の検出位置データに置き換えて、画面上の移動軌跡を表示部21に表示させる。
これにより、本実施形態による制御方法は、上述した本実施形態によるタブレット端末1と同様の効果を奏し、描画結果の品質を維持しつつ、入力に対する表示の遅延を低減することができる。
なお、本実施形態によるタブレット端末1(情報処理装置)は、以下の形態であってもよい。本実施形態によるタブレット端末1(情報処理装置)は、表示部21と、表示部21の画面上における操作媒体(例えば、ペン30)の接触位置を検出するタッチセンサ部22と、プログラムを一時的に記憶するメインメモリ12(メモリ)と、メインメモリ12に記憶されたプログラムを実行するプロセッサ11とを備える。プロセッサ11は、メインメモリ12に記憶されたプログラムを実行することにより、ノイズ除去処理と、入力処理とを実行する。プロセッサ11は、ノイズ除去処理において、ペン30が画面上に接触することで、タッチセンサ部22によって所定の検出間隔で検出された画面上の検出位置の生データ(第1検出位置データ)を取得し、複数の検出位置の生データに基づいて、検出位置の生データのノイズ除去して、ノイズ除去後の検出位置データ(第2検出位置データ)を生成する。プロセッサ11は、入力処理において、ノイズ除去処理によって生成されたノイズ除去後の検出位置データを取得し、ノイズ除去後の検出位置データに基づいて、ペン30が画面上に接触して移動した画面上の移動軌跡を表示部21に表示させる。また、プロセッサ11は、入力処理において、予測処理と、表示処理とを実行する。プロセッサ11は、予測処理として、検出位置の生データを取得し、複数の検出位置の生データに基づいて、ペン30の予測移動位置を示す予測位置データを生成する。プロセッサ11は、表示処理として、ノイズ除去後の検出位置データと、予測位置データとに基づいて、画面上の移動軌跡を表示部21に表示させた後、予測位置データに対応するノイズ除去後の検出位置データを取得した場合に、予測位置データをノイズ除去後の検出位置データに置き換えて、画面上の移動軌跡を表示部21に表示させる。
これにより、本実施形態によるタブレット端末1aは、上述した制御方法と同様の効果を奏し、手書き入力する際に、予測精度を改善しつつ、手書き入力に対する表示の遅延を低減することができる。
[第2の実施形態]
次に、図面を参照して、第2の実施形態によるタブレット端末1aについて説明する。
図9は、第2の実施形態によるタブレット端末1aの機能構成の一例を示すブロック図である。本実施形態では、検出位置の生データに対するノイズ除去処理を、ペン入力ドライバ110の代わりに、タッチセンサ部22aが実行する変形例について説明する。
なお、第2の実施形態によるタブレット端末1aの外観図及び主要なハードウェア構成は、図1及び図2に示す第1の実施形態と同様であるため、ここではその説明を省略する。
図9に示すように、タブレット端末1aは、メイン制御部10aと、タッチスクリーン20と、ペン30と、記憶部40とを備える。なお、図9において、上述した図3と同様の構成には同一の符号を付与してその説明を省略する。
また、タッチスクリーン20は、表示部21と、タッチセンサ部22aとを備える。
タッチセンサ部22aは、表示部21に重ねて配置されており、ペン30(操作媒体の一例)が、表示部21の表示画面DFに接触することを検出するとともに、ペン30の接触位置を検出する。タッチセンサ部22aは、所定の検出間隔でペン30の検出位置データ(生データ)を検出する。
また、タッチセンサ部22aは、内部に不図示のCPUと、RAM及びROMなどの記憶部を備えており、記憶部が記憶するファームウェアを、CPUが実行することで、例えば、ペン30の検出位置データのノイズ除去などの各種処理を実行可能である。タッチセンサ部22aは、ノイズ除去フィルタ部221を備える。
ノイズ除去フィルタ部221は、タッチセンサ部22aの不図示のCPUが、ファームウェアを実行することで実現される機能部である。ノイズ除去フィルタ部221は、タッチセンサ部22aからペン30の検出位置の生データ(第1検出位置データ)を取得し、複数の検出位置の生データに基づいて、検出位置の生データのノイズ除去して、ノイズ除去後の検出位置データ(第2検出位置データ)を生成する。ノイズ除去フィルタ部221は、ノイズ除去後の検出位置データ(第2検出位置データ)をペン入力ドライバ110a及びOS120を介して、入力処理部130に供給する。
また、タッチセンサ部22aは、ノイズ除去後の検出位置データとは別に、検出位置の生データを、ペン入力ドライバ110a及びOS120を介して、入力処理部130に供給する。
ペン入力ドライバ110aは、タッチスクリーン20(タッチセンサ部22a)のペン入力の処理を行うデバイスドライバであり、OSに付加されたデバイスドライバである。ペン入力ドライバ110aは、プロセッサ11がメインメモリ12又はフラッシュメモリ13が記憶するOSプログラムを実行することで実現される機能部である。
ペン入力ドライバ110aは、タッチセンサ部22aから受信したノイズ除去後の検出位置データ及び検出位置の生データを、OS120を介して、入力処理部130に供給する。
また、OS120及び入力処理部130の機能は、図3に示す第1の実施形態と小津陽であるため、ここではその説明を省略する。
次に、図面を参照して、本実施形態によるタブレット端末1aの動作について説明する。
図10は、本実施形態によるタブレット端末1aのペン入力処理動作の一例を示す図である。また、図10は、本実施形態によるタブレット端末1aのペン入力の表示例を示す図である。
図10に示すように、タブレット端末1aのタッチセンサ部22aは、まず、ペン入力を検出したか否かを判定する(ステップS301)。タッチセンサ部22aは、ペン入力を検出した場合(ステップS301:YES)に、処理をステップS302に進める。また、タッチセンサ部22aは、ペン入力を検出していない場合(ステップS301:NO)に、処理をステップS301に戻す。
続く、ステップS302及びステップS303の処理は、上述した図5に示すステップS102及びステップS103の処理と同様であるため、ここではその説明を省略する。
次に、タッチセンサ部22aは、ノイズ除去処理を実行する(ステップS304)。タッチセンサ部22aのノイズ除去フィルタ部221は、例えば、複数の検出位置の生データに基づいて、ノイズ除去処理を実行し、ノイズ除去後の検出位置データを生成する。
次に、タッチセンサ部22aは、ノイズ除去後の位置検出データを、ペン入力ドライバ110aに出力する(ステップS305)。
次に、ペン入力ドライバ110aは、タッチセンサ部22aから受信したノイズ除去後の位置検出データを、表示処理部133に出力する(ステップS306)。
次に、表示処理部133は、ペン30の移動軌跡を表示する(ステップS307)。表示処理部133は、ノイズ除去後の位置検出データを、ペン入力記憶部41に記憶させるとともに、ノイズ除去後の位置検出データによるペン30の移動軌跡を、表示部21に表示させる。
次に、ペン入力ドライバ110aは、タッチセンサ部22aから受信したノイズ除去後の位置検出データを、切替処理部131に転送する(ステップS308)。
続くステップS309からステップS313までの処理は、上述した図5に示すステップS108からステップS112までの処理と同様であるため、ここではその説明を省略する。
次に、再び、タッチセンサ部22aは、ペン入力を検出したか否かを判定する(ステップS314)。タッチセンサ部22aは、ペン入力を検出した場合(ステップS314:YES)に、処理をステップS315に進める。また、タッチセンサ部22aは、ペン入力を検出していない場合(ステップS314:NO)に、処理をステップS314に戻す。
続く、ステップS315からステップS319までの処理は、上述したステップS302からステップS306までの処理と同様であるため、ここでは説明を省略する。
次に、ステップ320において、表示処理部133は、ペン30の移動軌跡を表示する。ここでは、表示処理部133は、ペン30の予測軌跡から、ペン30の実移動軌跡に置き換えて、表示部21に表示させる。表示処理部133は、ノイズ除去後の位置検出データを、ペン入力記憶部41に記憶させるとともに、図6(c)の描画線LN1のように、ノイズ除去後の位置検出データによるペン30の移動軌跡を、表示部21に表示させる。
なお、ステップS320に続く処理は、ステップS308からステップS313の処理と同様であるため、ここではその説明を省略する。
また、最終的に、ペン入力ドライバ110aは、ペン入力記憶部41が記憶するノイズ除去後の位置検出データを、アプリケーションAPに供給する。すなわち、アプリケーションAPでは、ペン30の入力データ(検出位置データ)として、ペン入力記憶部41が記憶するノイズ除去後の位置検出データを用いる。
また、本実施形態によるタブレット端末1aの予測処理の切り替え動作は、上述した図7に示す第1の実施形態の動作と同様であるため、ここではその説明を省略する。
以上説明したように、本実施形態によるタブレット端末1a(情報処理装置)は、表示部21と、タッチセンサ部22aと、ノイズ除去フィルタ部221と、入力処理部130とを備える。タッチセンサ部22aは、ノイズ除去フィルタ部221を備える。タッチセンサ部22aは、ノイズ除去フィルタ部221がノイズ除去処理を実行して生成したノイズ除去後の検出位置データと、タッチセンサ部22aが検出したペン30の検出位置の生データとを、入力処理部130に供給する。
これにより、本実施形態によるタブレット端末1aは、上述した第1の実施形態と同様の効果を奏し、描画結果の品質を維持しつつ、入力に対する表示の遅延を低減することができる。
なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、情報処理装置が、タブレット端末1(1a)である例を説明したが、これに限定されるものではない。情報処理装置は、例えば、スマートフォンやタブレットモードを備えるノートブック型パーソナルコンピュータなどであってもよい。
例えば、情報処理装置がノートブック型パーソナルコンピュータである場合には、ペン入力ドライバ110(又は、タッチセンサ部22a)の代わりに、エンベデッドコントローラ(サブ制御部)が、ノイズ除去処理を実行するようにしてもよい。
また、上記の各実施形態において、操作媒体がペン30である例を説明したが、これに限定されるものではなく、例えば、利用者の指、等の他の操作媒体であってもよい。
なお、上述したタブレット端末1(1a)が備える各構成は、内部に、コンピュータシステムを有している。そして、上述したタブレット端末1(1a)が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述したタブレット端末1(1a)が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。
また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後にタブレット端末1(1a)が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
1、1a タブレット端末
10、10a メイン制御部
11 プロセッサ
12 メインメモリ
13 フラッシュメモリ
20 タッチスクリーン
21 表示部
22、22a タッチセンサ部
23 周辺デバイス
24 オーディオシステム
25 マイク
26 スピーカ
27 ベースバンドチップ
28 無線部
30 ペン
40 記憶部
41 ペン入力記憶部
110、110a ペン入力ドライバ
111、221 ノイズ除去フィルタ部
120 OS
130 入力処理部
131 切替処理部
132 予測処理部
133 表示処理部
AP アプリケーション
CS1 筐体
DF 表示画面

Claims (7)

  1. 表示部と、
    前記表示部の画面上に配置され、前記画面上における物体との接触を検出するタッチセンサ部と、
    操作媒体が前記画面上に接触することで、前記タッチセンサ部によって所定の検出間隔で検出された前記画面上の第1検出位置データを取得し、複数の前記第1検出位置データに基づいて、前記第1検出位置データのノイズ除去して、第2検出位置データを生成するノイズ除去フィルタ部と、
    前記ノイズ除去フィルタ部が生成した前記第2検出位置データを取得し、前記第2検出位置データに基づいて、前記操作媒体が前記画面上に接触して移動した前記画面上の移動軌跡を前記表示部に表示させる入力処理部と
    を備え、
    前記入力処理部は、
    前記第1検出位置データを取得し、複数の前記第1検出位置データに基づいて、前記操作媒体の予測移動位置を示す予測位置データを生成する予測処理部と、
    前記第2検出位置データと、前記予測位置データとに基づいて、前記画面上の移動軌跡を前記表示部に表示させた後、前記予測位置データに対応する前記第2検出位置データを取得した場合に、前記予測位置データを前記第2検出位置データに置き換えて、前記画面上の移動軌跡を前記表示部に表示させる表示処理部と
    を備える情報処理装置。
  2. 前記入力処理部は、
    前記第1検出位置データと、前記第2検出位置データとを切り替えて、第3検出位置データとして、前記予測処理部に供給する切替処理部を備え、
    前記予測処理部は、前記切替処理部から供給された複数の前記第3検出位置データに基づいて、前記操作媒体の予測移動位置を示す予測位置データを生成する
    請求項1に記載の情報処理装置。
  3. 前記切替処理部は、前記操作媒体による前記画面上の移動速度に応じて、前記第1検出位置データと、前記第2検出位置データとを切り替える
    請求項2に記載の情報処理装置。
  4. 前記切替処理部は、前記操作媒体による前記画面上の移動加速度に応じて、前記第1検出位置データと、前記第2検出位置データとを切り替える
    請求項2又は請求項3に記載の情報処理装置。
  5. OS(オペレーティングシステム)に基づく処理を実行するメイン制御部を備え、
    前記メイン制御部は、前記ノイズ除去フィルタ部と、前記入力処理部とを含み、
    前記ノイズ除去フィルタ部は、前記OSに付加されたデバイスドライバによって実現される
    請求項1から請求項4のいずれか一項に記載の情報処理装置。
  6. 前記タッチセンサ部は、前記ノイズ除去フィルタ部を備える
    請求項1から請求項4のいずれか一項に記載の情報処理装置。
  7. 表示部と、前記表示部の画面上に配置され、前記画面上における物体との接触を検出するタッチセンサ部とを備える情報処理装置の制御方法であって、
    ノイズ除去フィルタ部が、操作媒体が前記画面上に接触することで、前記タッチセンサ部によって所定の検出間隔で検出された前記画面上の第1検出位置データを取得し、複数の前記第1検出位置データに基づいて、前記第1検出位置データのノイズ除去して、第2検出位置データを生成するノイズ除去ステップと、
    入力処理部が、前記ノイズ除去ステップによって生成された前記第2検出位置データを取得し、前記第2検出位置データに基づいく、前記操作媒体が前記画面上に接触して移動した前記画面上の移動軌跡を前記表示部に表示させる入力処理ステップと
    を含み、
    前記入力処理部は、前記入力処理ステップにおいて、
    前記第1検出位置データを取得し、複数の前記第1検出位置データに基づいて、前記操作媒体の予測移動位置を示す予測位置データを生成する予測処理と、
    前記第2検出位置データと、前記予測位置データとに基づいて、前記画面上の移動軌跡を前記表示部に表示させた後、前記予測位置データに対応する前記第2検出位置データを取得した場合に、前記予測位置データを前記第2検出位置データに置き換えて、前記画面上の移動軌跡を前記表示部に表示させる表示処理と
    を実行する制御方法。
JP2022035656A 2022-03-08 2022-03-08 情報処理装置、及び制御方法 Active JP7284844B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022035656A JP7284844B1 (ja) 2022-03-08 2022-03-08 情報処理装置、及び制御方法
US18/168,575 US11989372B2 (en) 2022-03-08 2023-02-14 Information processing apparatus and controlling method
CN202310209866.2A CN116737004A (zh) 2022-03-08 2023-03-07 信息处理装置以及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022035656A JP7284844B1 (ja) 2022-03-08 2022-03-08 情報処理装置、及び制御方法

Publications (2)

Publication Number Publication Date
JP7284844B1 true JP7284844B1 (ja) 2023-05-31
JP2023131016A JP2023131016A (ja) 2023-09-21

Family

ID=86538341

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022035656A Active JP7284844B1 (ja) 2022-03-08 2022-03-08 情報処理装置、及び制御方法

Country Status (3)

Country Link
US (1) US11989372B2 (ja)
JP (1) JP7284844B1 (ja)
CN (1) CN116737004A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017122956A (ja) 2016-01-04 2017-07-13 コニカミノルタ株式会社 手書き情報入力装置手書き情報入力方法プログラム
US20190310738A1 (en) 2016-10-28 2019-10-10 Remarkable As Interactive Displays
WO2021098878A1 (zh) 2019-11-22 2021-05-27 华为技术有限公司 一种预测手写笔绘制点的方法和设备

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9529525B2 (en) 2013-08-30 2016-12-27 Nvidia Corporation Methods and apparatus for reducing perceived pen-to-ink latency on touchpad devices
US9323449B2 (en) * 2014-05-09 2016-04-26 Htc Corporation Electronic apparatus and drawing method using the same
US10088952B2 (en) * 2014-09-18 2018-10-02 Tactual Labs Co. Systems and methods for using hover information to predict touch locations and reduce or eliminate touchdown latency

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017122956A (ja) 2016-01-04 2017-07-13 コニカミノルタ株式会社 手書き情報入力装置手書き情報入力方法プログラム
US20190310738A1 (en) 2016-10-28 2019-10-10 Remarkable As Interactive Displays
WO2021098878A1 (zh) 2019-11-22 2021-05-27 华为技术有限公司 一种预测手写笔绘制点的方法和设备

Also Published As

Publication number Publication date
CN116737004A (zh) 2023-09-12
US20230289014A1 (en) 2023-09-14
JP2023131016A (ja) 2023-09-21
US11989372B2 (en) 2024-05-21

Similar Documents

Publication Publication Date Title
US10664102B2 (en) Method and apparatus for responding to touch operation, storage medium and terminal
US20150160731A1 (en) Method of recognizing gesture through electronic device, electronic device, and computer readable recording medium
CN108681474B (zh) 应用预加载方法、装置、存储介质及终端
KR20150106132A (ko) 전자 장치의 캐시 메모리 제어 방법 및 장치
CN109085985B (zh) 发声控制方法、装置、电子装置以及存储介质
CN109144460B (zh) 发声控制方法、装置、电子装置以及存储介质
KR20210037320A (ko) 어플리케이션 실행 방법 및 장치
CN116449980A (zh) 信息处理装置以及控制方法
JP7293462B1 (ja) 情報処理システム、情報処理装置、及び制御方法
KR20150052481A (ko) 콘텐츠 표시 방법 및 이를 구현하는 전자 장치
US11449176B2 (en) Information processing system and method for avoiding execution of unintentional drawing operations
JP7284844B1 (ja) 情報処理装置、及び制御方法
WO2010122825A1 (ja) 携帯端末
EP4116805B1 (en) Information processing apparatus, information processing system, and control method
CN115705112A (zh) 信息处理装置、信息处理系统以及控制方法
CN109308164B (zh) 一种系统迁移的方法和装置
KR20160042618A (ko) 이동 단말기 및 그 제어방법
JP7444939B1 (ja) 情報処理装置、及び制御方法
US12086349B2 (en) Information processing apparatus, touch device, and control method
WO2018144358A1 (en) Application portability via application(s) installed on a portable storage device
CN112567326B (zh) 用于处理动态图像的方法及其电子设备
JP2024096593A (ja) 情報処理システム、及び制御方法
CN118525261A (zh) 用于处理触摸输入的方法和电子设备
KR20220079212A (ko) 가비지 컬렉션을 수행하기 위한 전자 장치 및 방법
KR20210121923A (ko) 백 그라운드 어플리케이션의 제어 방법 및 이를 지원하는 전자 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230519

R150 Certificate of patent or registration of utility model

Ref document number: 7284844

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350