JP2022157205A - タッチパネル装置 - Google Patents

タッチパネル装置 Download PDF

Info

Publication number
JP2022157205A
JP2022157205A JP2021061303A JP2021061303A JP2022157205A JP 2022157205 A JP2022157205 A JP 2022157205A JP 2021061303 A JP2021061303 A JP 2021061303A JP 2021061303 A JP2021061303 A JP 2021061303A JP 2022157205 A JP2022157205 A JP 2022157205A
Authority
JP
Japan
Prior art keywords
touch
operation position
touch sensor
range
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021061303A
Other languages
English (en)
Inventor
道子 田代
Michiko Tashiro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Document Solutions Inc
Original Assignee
Kyocera Document Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Document Solutions Inc filed Critical Kyocera Document Solutions Inc
Priority to JP2021061303A priority Critical patent/JP2022157205A/ja
Priority to US17/708,065 priority patent/US20220317845A1/en
Priority to CN202210334757.9A priority patent/CN115145423A/zh
Publication of JP2022157205A publication Critical patent/JP2022157205A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】タッチ操作の位置ズレを効果的に抑制する。【解決手段】タッチパネル装置(100)は、表示パネル(130)と、タッチセンサー(140)と、パネル駆動部(112)と、分割範囲設定部(114)と、補正部と(118)とを備える。分割範囲設定部(114)は、タッチセンサー(140)の検知範囲を複数の範囲に分割して設定する。補正部(118)は、表示パネル(130)においてオブジェクトが表示された位置とタッチセンサー(140)のタッチ操作位置との間の操作位置ズレを複数の範囲ごとに示す操作位置ズレデータに基づいて、タッチセンサー(140)においてオブジェクトに対するタッチ操作を検知するためのオブジェクト検知領域を複数の範囲ごとに補正する。【選択図】図2

Description

本発明は、タッチパネル装置に関する。
近年、多種の表示装置にタッチパネルが搭載されている。例えば、タッチパネルは、スマートフォン、タブレット端末および携帯ゲーム機器に好適に搭載される。タッチパネルは、典型的には、表示パネル上に配置された多点検出が可能な静電容量方式タッチセンサーを有する。タッチパネルの操作者は、タッチパネルにおいて表示パネルに表示されたオブジェクトをタッチ操作することにより、表示パネルを操作できる。
しかしながら、操作者が、表示パネルに表示されたオブジェクトをタッチ操作したつもりであっても、表示パネルが操作者の意図したとおりに動作しないことがある。このため、タッチパネルに対する操作者の操作位置を高精度に取得することが検討されている(特許文献1参照)。特許文献1の入力装置では、近接センサーとタッチパネルの両方の検出結果に基づいて操作画面に接近した利用者の指先の位置を判定しており、これにより、誤動作を低減する。
特開2015-84194号公報
しかしながら、特許文献1の入力装置では、タッチパネルに加えて近接センサーが必要となる。また、この場合、2種類の検出結果に基づいて利用者の指先の位置を判定する必要があり、処理が複雑になる。
本発明は上記課題に鑑みてなされたものであり、その目的は、タッチ操作の位置ズレを効果的に抑制可能なタッチパネル装置を提供することにある。
本発明によるタッチパネル装置は、オブジェクトを含む表示画像を表示画面に表示する表示パネルと、前記表示パネルの前記表示画面に対して、検知範囲内でタッチ操作されたタッチ操作位置を検知するタッチセンサーと、前記タッチセンサーにおいて検知されたタッチ操作位置に応じて前記表示パネルを駆動するパネル駆動部と、前記タッチセンサーの前記検知範囲を複数の範囲に分割して設定する分割範囲設定部と、前記表示パネルにおいて前記オブジェクトが表示された位置と前記タッチセンサーの前記タッチ操作位置との間の操作位置ズレを前記複数の範囲ごとに示す操作位置ズレデータに基づいて、前記タッチセンサーにおいて前記オブジェクトに対するタッチ操作を検知するためのオブジェクト検知領域を前記複数の範囲ごとに補正する補正部とを備える。
本発明によれば、タッチ操作の位置ズレを効果的に抑制できる。
本実施形態のタッチパネル装置のブロック図である。 (a)は、表示パネルのオブジェクトとタッチセンサーの補正前のオブジェクト検知領域との位置関係を示すタッチパネル装置の模式的な斜視図であり、(b)は、表示パネルのオブジェクトとタッチセンサーの補正前のオブジェクト検知領域との位置関係を示すタッチパネル装置の模式図であり、(c)は、表示パネルのオブジェクトとタッチセンサーの補正後のオブジェクト検知領域との位置関係を示すタッチパネル装置の模式的な斜視図であり、(d)は、表示パネルのオブジェクトとタッチセンサーの補正後のオブジェクト検知領域との位置関係を示すタッチパネル装置の模式図である。 (a)は、タッチセンサーの補正前のオブジェクト検知領域を示す模式図であり、(b)は、タッチセンサーの分割されたオブジェクト検知領域の模式図であり、(c)は、オブジェクト検知領域に対してタッチ操作の行われた結果を示す模式図であり、(d)は、タッチセンサーの補正後のオブジェクト検知領域を示す模式図である。 本実施形態のタッチパネル装置においてオブジェクト検知領域を補正するための操作位置ズレデータを取得するフロー図である。 本実施形態のタッチパネル装置の動作を示すフロー図である。 (a)~(c)は、検知範囲の分割の態様が異なる本実施形態のタッチパネル装置の模式図である。 本実施形態のタッチパネル装置を備えた画像形成装置の模式図である。
以下、図面を参照して本発明によるタッチパネル装置の実施形態を説明する。なお、図中、同一または相当部分については同一の参照符号を付して説明を繰り返さない。
まず、図1を参照して、本実施形態のタッチパネル装置100を説明する。図1は、タッチパネル装置100の模式的なブロック図である。
図1に示すように、タッチパネル装置100は、制御部110と、記憶部120と、表示パネル130と、タッチセンサー140とを有する。制御部110は、記憶部120、表示パネル130およびタッチセンサー140を制御する。
典型的には、タッチパネル装置100は、筐体102を有する。筐体102は、中空の箱形状である。筐体102は、制御部110、記憶部120、表示パネル130およびタッチセンサー140を内部に収容する。
制御部110は、演算素子を含む。演算素子は、プロセッサーを含む。一例では、プロセッサーは、CPU(Central Processing Unit)を含む。
記憶部120は、データおよびコンピュータープログラムを記憶する。記憶部120は、記憶素子を含む。記憶部120は、半導体メモリーのような主記憶素子と、半導体メモリーおよび/またはハードディスクドライブのような補助記憶素子とを含む。記憶部120は、リムーバブルメディアを含んでいてもよい。制御部110のプロセッサーは、記憶部120の記憶素子の記憶しているコンピュータープログラムを実行して、タッチパネル装置100の各構成を制御する。
例えば、コンピュータープログラムは、非一時的コンピューター読取可能記憶媒体に記憶される。非一時的コンピューター読取可能記憶媒体は、ROM(Read Only Memory)、RAM(Random Access Memory)、CD-ROM,磁気テープ、磁気ディスクまたは光データ記憶装置を含む。
表示パネル130は、表示画面132を有する。表示パネル130は、オブジェクトObを含む表示画像を表示画面132に表示する。表示画面132には、表示画像が表示される。表示画面132には、オブジェクトObを含む表示画像が表示される。例えば、オブジェクトObは、アイコン、ボタンまたはソフトウェアキーボードを含む。典型的には、オブジェクトObは、背景に重ねて配置される。ただし、複数のオブジェクトObが表示画面132上に重ねて配置されてもよい。
タッチセンサー140は、操作者のタッチ操作を検知する。タッチセンサー140は、表示パネル130に重ねて配置される。タッチセンサー140のうち少なくとも表示パネル130と重なる部分は、透明である。操作者が、表示パネル130に表示されるオブジェクトObに対してタッチ操作すると、タッチセンサー140は、操作者がタッチ操作を行った位置を検知して、検知結果を制御部110に出力する。
タッチセンサー140は、複数のタッチ操作検知点を有する。典型的には、複数のタッチ操作検知点は、複数の行および複数の列からなるマトリクス状に配列される。タッチセンサー140は、複数のタッチ操作検知点のいずれかがタッチ操作されると、複数のタッチ操作検知点のうちのタッチ操作された点を特定する。
例えば、タッチセンサー140は、静電容量方式である。この場合、タッチセンサー140は、操作者の指が触れなくても、複数のタッチ操作位置を検知できる。ただし、タッチセンサー140は、接触方式であってもよい。
タッチセンサー140は、位置検知部142と、位置信号出力部144とを有する。位置検知部142は、操作者のタッチ操作位置を検知する。位置検知部142は、表示パネル130の表示画面132に対して、検知範囲内においてタッチ操作されたタッチ操作位置を検知する。位置信号出力部144は、位置検知部142において検知されたタッチ操作位置を示すタッチ操作位置信号を制御部110に出力する。
コンピュータープログラムの実行により、制御部110は、パネル駆動部112、分割範囲設定部114、操作位置ズレ特定部116および補正部118として機能する。
パネル駆動部112は、表示パネル130を駆動する。また、パネル駆動部112は、タッチセンサー140に対してタッチ操作されたタッチ操作位置に応じて表示パネル130を駆動する。詳細には、パネル駆動部112は、位置検知部142において検知されたタッチ操作位置に応じて表示パネル130を駆動する。パネル駆動部112は、位置信号出力部144から出力されたタッチ操作位置信号を受信すると、タッチ操作位置信号に基づいて表示パネル130を駆動する。
分割範囲設定部114は、タッチセンサー140の検知範囲DRを複数の範囲に分割して設定する。例えば、分割範囲設定部114は、タッチセンサー140の検知範囲DRを横方向(左右方向)に複数の範囲に分割して設定する。または、分割範囲設定部114は、タッチセンサー140の検知範囲DRを縦方向(上方向)に複数の範囲に分割して設定する。あるいは、分割範囲設定部114は、タッチセンサー140の検知範囲DRを横方向(左右方向)および縦方向(上方向)のそれぞれに複数の範囲に分割して設定してもよい。
操作位置ズレ特定部116は、表示パネル130においてオブジェクトObが表示された位置とタッチセンサー140のタッチ操作位置との間の操作位置ズレを複数の範囲ごとに示す操作位置ズレデータを生成する。操作位置ズレデータは、記憶部120に記憶されてもよい。あるいは、操作位置ズレデータは、別のタッチパネル装置100において取得されて記憶部120に記憶されてもよい。
操作位置ズレ特定部116は、表示パネル130においてオブジェクトが表示された位置とタッチセンサー140のタッチ操作位置との間の操作位置ズレを複数の範囲ごとに検知する。例えば、操作位置ズレ特定部116は、オブジェクトの中心とタッチセンサー140のタッチ操作位置との間の操作位置ズレを複数の範囲ごとに検知する。
また、操作位置ズレ特定部116は、検知範囲においてオブジェクトObに対応するオブジェクト検知領域Odを分割した複数の領域ごとのタッチ操作位置に基づいて操作位置ズレを特定する。
補正部118は、操作位置ズレデータに基づいて、オブジェクトObに対するタッチ操作を検知するためのオブジェクト検知領域Odを補正する。補正部118は、記憶部120に記憶された操作位置のズレを示した操作位置ズレデータに基づいてオブジェクト検知領域Odの位置を補正する。補正部118は、操作位置ズレ特定部116において検知された結果に基づいて、オブジェクト検知領域Odを複数の範囲ごとに補正する。パネル駆動部112は、タッチセンサー140に対してタッチ操作されたタッチ操作位置と補正されたオブジェクト検知領域Odに基づいて表示パネル130を駆動する。
なお、タッチパネル装置100は、操作者のIDカードを読み取るカードリーダー150をさらに備えてもよい。例えば、カードリーダー150は、筐体102に設置される。コンピュータープログラムの実行により、制御部110は、操作者識別部119として機能する。操作者識別部119は、操作者を識別する。例えば、カードリーダー150が操作者のIDカードを読み取って操作者を識別することによって、タッチパネル装置100はログインされて、使用可能状態になってもよい。この場合、記憶部120は、操作者ごとに検知範囲を分割した範囲毎の操作位置ズレを分けて記憶し、補正部118は、操作者ごとに検操作位置ズレデータに基づいてオブジェクト検知領域Odを補正してもよい。
次に、図1および図2を参照して本実施形態のタッチパネル装置100を説明する。まず、図2(a)および図2(b)を参照して、オブジェクト検知領域Odを補正する前のタッチパネル装置100を説明する。図2(a)は、表示パネル130のオブジェクトObとタッチセンサー140の補正前のオブジェクト検知領域Odとの位置関係を示すタッチパネル装置100の模式的な斜視図であり、図2(b)は、表示パネル130のオブジェクトObとタッチセンサー140の補正前のオブジェクト検知領域Odとの位置関係を示すタッチパネル装置100の模式図である。
図2(a)および図2(b)に示すように、表示パネル130は、オブジェクトOb1およびオブジェクトOb2を表示画面132に表示する。オブジェクトOb1は、表示画面132のほぼ中央に位置し、オブジェクトOb2は、表示画面132の右下に位置する。
タッチセンサー140は、オブジェクトOb1に対応してオブジェクト検知領域Od1を有する。オブジェクト検知領域Od1は、表示パネル130のオブジェクトOb1の位置に対応する位置に設定される。操作者が、オブジェクトOb1に対応するオブジェクト検知領域Od1に対してタッチ操作すると、表示パネル130は、オブジェクトOb1に設定された動作にしたがって駆動する。
また、タッチセンサー140は、オブジェクトOb2に対応してオブジェクト検知領域Od2を有する。オブジェクト検知領域Od2は、表示パネル130のオブジェクトOb2の位置に対応する位置に設定される。操作者が、オブジェクトOb2に対応するオブジェクト検知領域Od2に対してタッチ操作すると、表示パネル130は、オブジェクトOb2に設定された動作にしたがって駆動する。なお、本明細書において、オブジェクト検知領域Od1およびオブジェクト検知領域Od2を総称して、オブジェクト検知領域Odと記載することがある。
このように、オブジェクト検知領域Od1は、表示パネル130のオブジェクトOb1の位置に対応する位置に設定され、オブジェクト検知領域Od2は、表示パネル130のオブジェクトOb2の位置に対応する位置に設定される。
操作者が、表示パネル130のオブジェクトOb1の位置に対応する位置を操作しようとしても、タッチセンサー140が適切に反応しないことがある。これは、操作者が、タッチセンサー140のオブジェクト検知領域Od1に適切にタッチ操作していないためである。
同様に、操作者が、表示パネル130のオブジェクトOb2の位置に対応する位置を操作しようとしても、タッチセンサー140が適切に反応しないことがある。これは、操作者が、タッチセンサー140のオブジェクト検知領域Od2に適切にタッチ操作していないためである。
例えば、操作者が、表示パネル130のオブジェクトOb1に対して操作する場合、操作者が、タッチセンサー140のオブジェクト検知領域Od1の左上側およびオブジェクト検知領域Od1よりも左上側を操作しがちなことがある。この場合、タッチセンサー140は、表示パネル130のオブジェクトOb1に対応する位置から若干離れた位置に対して反応してもよい。
また、操作者が、表示パネル130のオブジェクトOb2に対して操作する場合、操作者が、タッチセンサー140のオブジェクト検知領域Od2の右側およびオブジェクト検知領域Od2よりも右側を操作しがちなことがある。この場合、タッチセンサー140は、表示パネル130のオブジェクトOb2に対応する位置から若干離れた位置に対して反応してもよい。
次に、図2(c)および図2(d)を参照して、オブジェクト検知領域Odを補正した後のタッチパネル装置100を説明する。図2(c)は、表示パネル130のオブジェクトObとタッチセンサー140の補正後のオブジェクト検知領域ODとの位置関係を示すタッチパネル装置100の模式的な斜視図であり、図2(b)は、表示パネル130のオブジェクトObとタッチセンサー140の補正後のオブジェクト検知領域ODとの位置関係を示すタッチパネル装置100の模式図である。
図2(c)および図2(d)に示すように、表示パネル130は、オブジェクトOb1およびオブジェクトOb2を表示画面132に表示する。オブジェクトOb1は、表示画面132のほぼ中央に位置し、オブジェクトOb2は、表示画面132の右下に位置する。
ここでは、タッチセンサー140において、オブジェクトOb1に対応する元のオブジェクト検知領域Od1から左上側にずれた位置に、オブジェクトOb1を選択するためのオブジェクト検知領域OD1が設定される。オブジェクト検知領域OD1は、表示パネル130のオブジェクトOb1に対応する元のオブジェクト検知領域Od1から左上側にずれた位置に設定される。操作者が、オブジェクト検知領域OD1内のいずれかの検知点に対してタッチ操作すると、表示パネル130は、オブジェクトOb1に設定された動作にしたがって駆動する。
また、タッチセンサー140において、オブジェクトOb2に対応する元のオブジェクト検知領域Od2から右側にずれた位置に、オブジェクトOb2を選択するためのオブジェクト検知領域OD2が設定される。オブジェクト検知領域OD2は、表示パネル130のオブジェクトOb2に対応する元のオブジェクト検知領域Od2から右側にずれた位置に設定される。操作者が、オブジェクト検知領域OD2内のいずれかの検知点に対してタッチ操作すると、表示パネル130は、オブジェクトOb2に設定された動作にしたがって駆動する。なお、本明細書において、オブジェクト検知領域OD1およびオブジェクト検知領域OD2を総称して、オブジェクト検知領域ODと記載することがある。
次に、図1~図3を参照して本実施形態のタッチパネル装置100におけるタッチセンサー140のオブジェクト検知領域Odを説明する。図3(a)は、タッチセンサー140の補正前のオブジェクト検知領域Odを示す模式図であり、図3(b)は、タッチセンサー140のオブジェクト検知領域Odを分割した模式図であり、図3(c)は、タッチセンサー140に対してタッチ操作された位置を示す模式図であり、図3(d)は、補正によってオブジェクト検知領域ODが設定されたタッチパネル装置100の模式図である。
図3(a)に示すように、ここでは、タッチセンサー140のオブジェクト検知領域Odは矩形状である。典型的には、オブジェクト検知領域Odは、オブジェクトObに対応する形状を有する。ここでは、オブジェクトObは、矩形状のボタンであり、オブジェクト検知領域Odは矩形状である。
タッチセンサー140は、検知範囲DRを有する。検知範囲DRは、表示パネル130の表示画面の少なくとも一部と重なる。検知範囲DRは、表示パネル130の表示画面全体と重なってもよい。
タッチセンサー140の検知範囲DRは、2つの領域に分けられる。検知範囲DRは、範囲DR1と、範囲DR2に分けられる。範囲DR1は、検知範囲DRの上側に位置し、範囲DR2は、検知範囲DRの下側に位置する。範囲DR1には、オブジェクトOb1に対応するオブジェクト検知領域Od1が位置する。範囲DR2には、オブジェクトOb2に対応するオブジェクト検知領域Od2が位置する。
分割範囲設定部114は、オブジェクトOb1およびオブジェクトOb2を含む表示画像に基づいて、検知範囲DRを範囲DR1および範囲DR2に分割してもよい。例えば、分割範囲設定部114は、オブジェクトOb1およびオブジェクトOb2の縦方向の座標の位置の差に基づいて検知範囲DRを範囲DR1および範囲DR2に分割してもよい。あるいは、分割範囲設定部114は、オブジェクトOb1およびオブジェクトOb2の横方向の座標の位置の差に基づいて検知範囲DRを範囲DR1および範囲DR2に分割してもよい。
図3(b)に示すように、オブジェクト検知領域Od1は、複数の領域に分割される。分割範囲設定部114は、オブジェクト検知領域Odを複数の領域に分割する。
ここでは、オブジェクト検知領域Od1は、9個の領域に分割される。オブジェクト検知領域Od1は、中央領域C1と、中央領域C1に対して左上側に位置する左上領域R1と、中央領域C1に対して左側に位置する左領域R2と、中央領域C1に対して左下側に位置する左下領域R3と、中央領域C1に対して上側に位置する上領域R4と、中央領域C1に対して下側に位置する下領域R5と、中央領域C1に対して右上側に位置する右上領域R6と、中央領域C1に対して右側に位置する右領域R7と、中央領域C1に対して右下側に位置する右下領域R8とを有する。
同様に、オブジェクト検知領域Od2は、9個の領域に分割される。オブジェクト検知領域Od2は、中央領域c1と、中央領域c1に対して左上側に位置する左上領域r1と、中央領域c1に対して左側に位置する左領域r2と、中央領域c1に対して左下側に位置する左下領域r3と、中央領域c1に対して上側に位置する上領域r4と、中央領域c1に対して下側に位置する下領域r5と、中央領域c1に対して右上側に位置する右上領域r6と、中央領域c1に対して右側に位置する右領域r7と、中央領域c1に対して右下側に位置する右下領域r8とを有する。
図3(c)に示すように、タッチセンサー140は、表示パネル130のオブジェクトOb1およびオブジェクトOb2を操作する際にタッチ操作された位置を取得する。操作位置ズレ特定部116は、オブジェクトOb1を選択する際に、オブジェクト検知領域Od1の中央領域C1、左上領域R1から右下領域R8およびオブジェクト検知領域Od1の周囲の領域が何回操作されたかを特定する。同様に、操作位置ズレ特定部116は、オブジェクトOb2を選択する際に、オブジェクト検知領域Od2の中央領域c1、左上領域r1から右下領域r8およびオブジェクト検知領域Od2の周囲の領域が何回操作されたかを特定する。
図3(c)には、オブジェクトOb1およびオブジェクトOb2を操作する際にタッチ操作された位置を「×」で示す。オブジェクトOb1をタッチ操作する場合、操作者は、タッチセンサー140のオブジェクト検知領域Od1の中心に対してオブジェクト検知領域Od1の左上側およびオブジェクト検知領域Od1よりも左上側を複数回操作した。操作位置ズレ特定部116は、検知範囲DRのうちのタッチ操作位置に該当する範囲を範囲DR1と特定するとともに、オブジェクトOb1の中心とタッチ操作位置とのズレを特定する。記憶部120は、このような操作位置ズレを範囲DR1の操作位置ズレとして記憶する。
また、操作者は、表示パネル130のオブジェクトOb2に対して操作する場合、タッチセンサー140のオブジェクト検知領域Od2の中心に対してオブジェクト検知領域Od2の右側およびオブジェクト検知領域Od2よりも右側を複数回操作した。操作位置ズレ特定部116は、検知範囲DRのうちのタッチ操作位置に該当する範囲を範囲DR2と特定するとともに、オブジェクトOb2の中心とタッチ操作位置とのズレを特定する。記憶部120は、このような操作位置ズレを範囲DR2の操作位置ズレとして記憶する。
図3(d)に示すように、オブジェクト検知領域Od1はオブジェクト検知領域OD1に補正され、オブジェクト検知領域Od2はオブジェクト検知領域OD 2に補正される。補正部118は、範囲DR1の操作位置ズレに基づいて、オブジェクトOb1に対応する元のオブジェクト検知領域Od1を左上側にずれた位置にオブジェクト検知領域OD1として補正する。このため、操作者は、オブジェクト検知領域OD1に対してタッチ操作すると、表示パネル130は、オブジェクトOb1に設定された動作にしたがって駆動する。
また、補正部118は、範囲DR2の操作位置ズレに基づいて、オブジェクトOb2に対応する元のオブジェクト検知領域Od2を右側にずれた位置にオブジェクト検知領域OD2として補正する。このため、操作者は、オブジェクト検知領域OD2に対してタッチ操作すると、表示パネル130は、オブジェクトOb2に設定された動作にしたがって駆動する。
このように、補正部118は、検知範囲DRを分割した複数の範囲毎に記憶された操作位置ズレに基づいて、オブジェクトObに対応する元のオブジェクト検知領域Odからずれた位置にオブジェクト検知領域ODを補正する。このため、タッチ操作の位置ズレを効果的に抑制できる。
なお、図2および図3では、説明が過度に複雑になることを避ける目的で、検知範囲DRを2つの範囲DR1および範囲DR2に分割したが、本実施形態はこれに限定さない。検知範囲DRは3以上の範囲に分割されてもよい。
次に、図1~図4を参照して本実施形態のタッチパネル装置100の動作フローを説明する。図4は、本実施形態のタッチパネル装置100においてオブジェクト検知領域Odを補正するための操作位置ズレデータを取得するフロー図である。
図4に示すように、ステップS102において、操作者がログインしたか否かを判定する。操作者のログインを判定することにより、操作者を識別できる。
操作者がログインしていない場合(ステップS102においてNo)、処理は、ステップS102に戻る。操作者がログインした場合(ステップS102においてYes)、処理は、ステップS104に進む。
ステップS104において、パネル駆動部112は、表示画像を取得する。パネル駆動部112は、表示パネル130が表示画像を表示するように表示パネル130を駆動する。パネル駆動部112は、記憶部120から表示画像を取得してもよい。あるいは、パネル駆動部112は、外部装置から表示画像を取得してもよい。
ステップS106において、分割範囲設定部114は、タッチセンサー140の検知範囲DRを複数の範囲に分割する。例えば、分割範囲設定部114は、表示画像に基づいて、検知範囲DRを複数の範囲に分割する。一例では、分割範囲設定部114は、表示画像内のオブジェクトの配置に基づいて、検知範囲DRを複数の範囲に分割する。
ステップS108において、位置検知部142がタッチ操作位置を検知したか否かを判定する。位置検知部142がタッチ操作位置を検知していない場合(ステップS108においてNo)、処理は、ステップS108に戻り、位置検知部142がタッチ操作位置を検知するまで待機する。位置検知部142がタッチ操作位置を検知する場合(ステップS108においてYes)、処理は、ステップS110に進む。
ステップS110において、操作位置ズレ特定部116は、検知範囲DRのうちのタッチ操作位置に該当する範囲を特定するとともに、オブジェクトの中心とタッチ操作位置とのズレを特定する。その後、記憶部120は、操作者および検知範囲DR内の範囲毎に操作位置ズレを示す操作位置ズレデータを記憶する。
ステップS112において、制御部110は、操作者および検知範囲DR内の範囲毎に記憶した操作位置ズレの数が所定数を超えたか否かを判定する。操作位置ズレの数が所定数を超えていない場合(ステップS112においてNo)、処理は、ステップS104に戻る。操作位置ズレの数が所定数を超えた場合(ステップS112においてYes)、処理は、終了する。以上のようにして、操作位置ズレデータを取得できる。
次に、図1~図5を参照して本実施形態のタッチパネル装置100の動作フローを説明する。図5は、本実施形態のタッチパネル装置100の動作を示すフロー図である。
図5に示すように、ステップS202において、操作者がログインしたか否かを判定する。操作者がログインしていない場合(ステップS202においてNo)、処理は、ステップS202に戻る。操作者がログインした場合(ステップS202においてYes)、処理は、ステップS204に進む。
ステップS204において、パネル駆動部112は、表示画像を取得する。パネル駆動部112は、表示パネル130が表示画像を表示するように表示パネル130を駆動する。パネル駆動部112は、記憶部120から表示画像を取得してもよい。あるいは、パネル駆動部112は、外部装置から表示画像を取得してもよい。
ステップS206において、分割範囲設定部114は、タッチセンサー140の検知範囲DRを複数の範囲に分割する。例えば、分割範囲設定部114は、表示画像に基づいて、検知範囲DRを複数の範囲に分割する。一例では、分割範囲設定部114は、表示画像内のオブジェクトの配置に基づいて、検知範囲DRを複数の範囲に分割する。
ステップS208において、補正部118は、操作者および検知範囲DR内の範囲毎に記憶した操作位置ズレに基づいてオブジェクト検知領域Odを補正する。補正部118は、記憶部120に記憶された操作位置のズレを示した操作位置ズレデータに基づいてオブジェクト検知領域Odを補正する。
ステップS210において、位置検知部142がタッチ操作位置を検知したか否かを判定する。位置検知部142がタッチ操作位置を検知していない場合(ステップS210においてNo)、処理は、ステップS210に戻る。位置検知部142がタッチ操作位置を検知する場合(ステップS210においてYes)、処理は、ステップS212に進む。
ステップS212において、パネル駆動部112は、タッチセンサー140に対してタッチ操作されたタッチ操作位置と補正されたオブジェクト検知領域Odに基づいて表示パネル130を駆動する。その後、処理は、ステップS214に進む。
ステップS214において、操作を終了するか否かを判定する。操作を終了しない場合(ステップS214においてNo)、処理は、ステップS204に戻る。操作を終了する場合(ステップS214においてYes)、処理を終了する。
以上のようにして、操作位置ズレデータに基づいて、オブジェクト検知領域Odを補正して、パネル駆動部112を駆動できる。このため、タッチ操作の位置ズレを効果的に抑制できる。
なお、図2(a)~図3(d)に示したタッチパネル装置100では、タッチセンサー140の検知範囲DRは、縦方向に2分割されたが、本実施形態はこれに限定されない。タッチセンサー140の検知範囲DRは、横方向に分割されてもよい。あるいは、タッチセンサー140の検知範囲DRは、縦方向および横方向に分割されてもよい。
次に、図6を参照して、本実施形態のタッチパネル装置100を説明する。図6(a)~図6(c)は、タッチセンサー140の検知範囲DRの分割の態様が異なる本実施形態のタッチパネル装置100の模式図である。
図6(a)に示すように、タッチセンサー140の検知範囲DRは、横方向に2分割されるとともに縦方向に2分割されてもよい。この場合、分割範囲設定部114は、タッチセンサー140の検知範囲DRを4分割する。
ここでは、4分割したタッチセンサー140の検知範囲DRのうち左上側部分を範囲DR1と記載し、左下側部分を範囲DR2と記載し、右上側部分を範囲DR3と記載し、右下側部分を範囲DR4と記載する。範囲DR1には、選択ボタンが配置されており、範囲DR2には、キャンセルボタンが配置されている。また、範囲DR3には、選択ボタンが配置されており、範囲DR4には、OKボタンが配置されている。
分割範囲設定部114は、表示画像のオブジェクトに応じて、タッチセンサー140の検知範囲DRを分割してもよい。例えば、分割範囲設定部114は、表示画像において上下方向(縦方向)に沿ったオブジェクトの配置によってタッチセンサー140の検知範囲DRを2分割する。また、分割範囲設定部114は、表示画像において左右方向(横方向)に沿ったオブジェクトの配置によってタッチセンサー140の検知範囲DRを2分割する。これにより、分割範囲設定部114は、タッチセンサー140の検知範囲DRを4分割する。
図6(b)に示すように、タッチセンサー140の検知範囲DRは、横方向に分割されることなく縦方向に3分割されてもよい。この場合、分割範囲設定部114は、タッチセンサー140の検知範囲DRを3分割する。
ここでは、3分割されたタッチセンサー140の検知範囲DRのうち上側部分を範囲DR1と記載し、中央部分を範囲DR2と記載し、下側部分を範囲DR3と記載する。範囲DR1には、検索欄が配置されており、範囲DR2には、選択ボタンが配置されており、範囲DR3には、キャンセルボタンおよびOKボタンが配置されている。
分割範囲設定部114は、表示画像のオブジェクトに応じて、タッチセンサー140の検知範囲DRを分割してもよい。例えば、分割範囲設定部114は、表示画像において上下方向(縦方向)に沿って配置された検索欄とボタンとの間を分割する。また、分割範囲設定部114は、表示画像において上下方向(縦方向)に沿って配置されたボタンと、キャンセルボタンおよびOKボタンとの間を分割する。これにより、分割範囲設定部114は、タッチセンサー140の検知範囲DRを3分割する。
図6(c)に示すように、タッチセンサー140の検知範囲DRは、横方向に3分割されるとともに縦方向に2分割されてもよい。この場合、分割範囲設定部114は、タッチセンサー140の検知範囲DRを6分割する。
ここでは、6分割されたタッチセンサー140の検知範囲DRのうち左上側部分を範囲DR1と記載し、左下側部分を範囲DR2と記載し、中央上側部分を範囲DR3と記載し、中央下側部分を範囲DR4と記載し、右上側部分を範囲DR5と記載し、右下側部分を範囲DR6と記載する。範囲DR1には、選択ボタンが配置されており、範囲DR2には、キャンセルボタンが配置されている。また、範囲DR3には、選択ボタンが配置されており、範囲DR4には、オブジェクトは配置されていない。また、範囲DR5には、選択ボタンが配置されており、範囲DR6には、OKボタンが配置されている。
分割範囲設定部114は、表示画像のオブジェクトに応じて、タッチセンサー140の検知範囲DRを分割してもよい。例えば、分割範囲設定部114は、表示画像において上下方向(縦方向)に沿って配置された選択ボタンとキャンセルボタンおよびOKボタンとの間を縦方向に2分割する。また、分割範囲設定部114は、表示画像において左右方向(横方向)に沿って配置された選択ボタン、キャンセルボタンおよびOKボタンの間をそれぞれ横方向に3分割する。これにより、分割範囲設定部114は、タッチセンサー140の検知範囲DRを6分割する。
本実施形態のタッチパネル装置100は、電子機器の一部として好適に用いられる。例えば、タッチパネル装置100は、画像形成装置の一部として用いられてもよい。
次に、図7を参照して、本実施形態のタッチパネル装置100を説明する。図7は、本実施形態のタッチパネル装置100を備えた画像形成装置200の模式図である。ここでは、画像形成装置200は電子写真方式である。
図7に示すように、画像形成装置200は、タッチパネル装置100に加えて、搬送部210、画像形成部220、制御装置230および記憶装置240を備える。制御装置230は、制御部110と、装置制御部230Aとを含む。装置制御部230Aは、搬送部210および画像形成部220を制御する。制御装置230は、タッチパネル装置100および画像形成部220を連動して制御できる。
記憶装置240は、記憶部120と、装置記憶部240Aとを含む。記憶部120は、制御部110の制御に用いられる情報を記憶する。装置記憶部240Aは、装置制御部230Aの制御に用いられる情報を記憶する。
搬送部210は、給送部212と、搬送ローラー214と、排出トレイ216とを有する。
給送部212は、複数のシートSを収容する。シートSは、例えば、用紙である。給送部212は、搬送ローラーへシートSを給送する。搬送ローラーは、画像形成部220にシートSを搬送する。搬送ローラーは複数の搬送ローラーを含む。
画像形成装置200には、トナーコンテナCa~Cdが装着される。トナーコンテナCa~Cdの各々は画像形成装置200に対して着脱自在である。トナーコンテナCa~Cdのそれぞれには異なる色のトナーが収容される。トナーコンテナCa~Cdのトナーは、画像形成部220に供給される。画像形成部220は、トナーコンテナCa~Cdからのトナーを用いて画像を形成する。
例えば、トナーコンテナCaは、イエロー色のトナーを収容し、画像形成部220にイエロー色のトナーを供給する。トナーコンテナCbは、マゼンタ色のトナーを収容し、画像形成部220にマゼンタ色のトナーを供給する。トナーコンテナCcは、シアン色のトナーを収容し、画像形成部220にシアン色のトナーを供給する。トナーコンテナCdは、ブラック色のトナーを収容し、画像形成部220にブラック色のトナーを供給する。
画像形成部220は、トナーコンテナCa~Cdに収容されたトナーを用いて、画像データに基づく画像をシートSに形成する。ここでは、画像形成部220は、露光部221、感光体ドラム222a、帯電部222b、現像部222c、1次転写ローラー222d、クリーニング部222e、中間転写ベルト223、2次転写ローラー224および定着部225を含む。
なお、感光体ドラム222a、帯電部222b、現像部222c、1次転写ローラー222dおよびクリーニング部222eは、トナーコンテナCa~Cdのそれぞれに対応して設けられる。複数の感光体ドラム222aは、中間転写ベルト223の外表面に当接し、中間転写ベルト223の回転方向に沿って配置される。複数の1次転写ローラー222dは、複数の感光体ドラム222aに対応して設けられる。複数の1次転写ローラー222dは、中間転写ベルト223を介して、複数の感光体ドラム222aに対向する。
帯電部222bは感光体ドラム222aの周面を帯電する。露光部221は、画像データに基づく光を感光体ドラム222aの各々に照射し、感光体ドラム222aの周面には静電潜像が形成される。現像部222cは、静電潜像にトナーを付着させて静電潜像を現像し、感光体ドラム222aの周面にトナー像を形成する。したがって、感光体ドラム222aはトナー像を担持する。1次転写ローラー222dは、感光体ドラム222aに形成されたトナー像を中間転写ベルト223の外表面に転写する。クリーニング部222eは、感光体ドラム222aの周面に残留しているトナーを除去する。
トナーコンテナCaに対応する感光体ドラム222aは、静電潜像に基づきイエロー色のトナー像を形成し、トナーコンテナCbに対応する感光体ドラム222aは、静電潜像に基づきマゼンタ色のトナー像を形成する。トナーコンテナCcに対応する感光体ドラム222aは、静電潜像に基づきシアン色のトナー像を形成し、トナーコンテナCdに対応する感光体ドラム222aは、静電潜像に基づきブラック色のトナー像を形成する。
中間転写ベルト223の外表面には、感光体ドラム222aから複数色のトナー像が重畳して転写され、画像が形成される。このため、中間転写ベルト223は、画像を担持する。中間転写ベルト223は、「像担持体」の一例に相当する。2次転写ローラー224は、中間転写ベルト223の外表面に形成された画像をシートSに転写する。定着部225はシートSを加熱および加圧して、画像をシートSに定着させる。
搬送ローラーは、画像形成部220によって画像の形成されたシートSを排出トレイ216に搬送する。排出トレイ216は、画像形成装置200の外部にシートSを排出する。排出トレイ216は排出ローラーを含む。画像形成装置200によって画像の印刷されたシートSは、排出トレイ216から画像形成装置200の外部に排出される。
タッチパネル装置100は、操作者からの入力操作を受け付ける。タッチパネル装置100は、操作者のタッチ操作を検知することによって操作者からの入力操作を受け付ける。例えば、タッチパネル装置100は、操作者からの印刷操作を受け付ける。タッチパネル装置100は、操作者からのプレビュー操作を受け付ける。または、タッチパネル装置100は、操作者からの印刷決定操作を受け付ける。
以上、図面を参照しながら本発明の実施形態について説明した。但し、本発明は、上記の実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々の態様において実施することが可能である。また、上記の実施形態に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明の形成が可能である。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。図面は、理解しやすくするために、それぞれの構成要素を主体に模式的に示しており、図示された各構成要素の厚さ、長さ、個数、間隔等は、図面作成の都合上から実際とは異なる場合もある。また、上記の実施形態で示す各構成要素の材質、形状、寸法等は一例であって、特に限定されるものではなく、本発明の効果から実質的に逸脱しない範囲で種々の変更が可能である。
本発明は、タッチパネル装置に好適に用いられる。
100 タッチパネル装置
110 制御部
112 パネル駆動部
114 分割範囲設定部
116 操作位置ズレ特定部
118 補正部
120 記憶部
130 表示パネル
140 タッチセンサー

Claims (6)

  1. オブジェクトを含む表示画像を表示画面に表示する表示パネルと、
    前記表示パネルの前記表示画面に対して、検知範囲内でタッチ操作されたタッチ操作位置を検知するタッチセンサーと、
    前記タッチセンサーにおいて検知されたタッチ操作位置に応じて前記表示パネルを駆動するパネル駆動部と、
    前記タッチセンサーの前記検知範囲を複数の範囲に分割して設定する分割範囲設定部と、
    前記表示パネルにおいて前記オブジェクトが表示された位置と前記タッチセンサーの前記タッチ操作位置との間の操作位置ズレを前記複数の範囲ごとに示す操作位置ズレデータに基づいて、前記タッチセンサーにおいて前記オブジェクトに対するタッチ操作を検知するためのオブジェクト検知領域を前記複数の範囲ごとに補正する補正部と
    を備える、タッチパネル装置。
  2. 操作者を識別する操作者識別部と、
    前記操作者識別部において識別された操作者ごとに、前記操作位置ズレデータを記憶する記憶部と
    をさらに備える、請求項1に記載のタッチパネル装置。
  3. 前記操作位置ズレデータを生成する操作位置ズレ特定部をさらに備える、請求項1または2に記載のタッチパネル装置。
  4. 前記操作位置ズレ特定部は、前記検知範囲において前記オブジェクト検知領域を分割した複数の領域ごとの前記タッチ操作位置に基づいて前記操作位置ズレを特定する、請求項3に記載のタッチパネル装置。
  5. 前記分割範囲設定部は、前記表示画像内の前記オブジェクトの配置に応じて、前記タッチセンサーの前記検知範囲を分割する、請求項1から4のいずれかに記載のタッチパネル装置。
  6. 前記オブジェクトは、アイコン、ボタンまたはソフトウェアキーボードを含む、請求項1から5のいずれかに記載のタッチパネル装置。
JP2021061303A 2021-03-31 2021-03-31 タッチパネル装置 Pending JP2022157205A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021061303A JP2022157205A (ja) 2021-03-31 2021-03-31 タッチパネル装置
US17/708,065 US20220317845A1 (en) 2021-03-31 2022-03-30 Touch panel device
CN202210334757.9A CN115145423A (zh) 2021-03-31 2022-03-31 触摸面板装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021061303A JP2022157205A (ja) 2021-03-31 2021-03-31 タッチパネル装置

Publications (1)

Publication Number Publication Date
JP2022157205A true JP2022157205A (ja) 2022-10-14

Family

ID=83407156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021061303A Pending JP2022157205A (ja) 2021-03-31 2021-03-31 タッチパネル装置

Country Status (3)

Country Link
US (1) US20220317845A1 (ja)
JP (1) JP2022157205A (ja)
CN (1) CN115145423A (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11301128B2 (en) * 2019-05-01 2022-04-12 Google Llc Intended input to a user interface from detected gesture positions

Also Published As

Publication number Publication date
US20220317845A1 (en) 2022-10-06
CN115145423A (zh) 2022-10-04

Similar Documents

Publication Publication Date Title
US9516182B2 (en) Image forming apparatus that enhances operability on screen displayed as split screens
JP5693408B2 (ja) 動作装置
US9025217B2 (en) Document, image forming apparatus, cover plate, image reading apparatus, image forming method, and image reading method
JP6354642B2 (ja) 画像読取装置及び画像処理装置
JP2019195985A (ja) 画像形成装置
JP2022157205A (ja) タッチパネル装置
JP6512170B2 (ja) 電子機器及び画像形成装置
US20110182600A1 (en) Iimage forming apparatus, alignment pattern forming method, and computer-readable recording medium having toner image alignment program recorded therein
JP5623379B2 (ja) 入力装置および処理装置
JP6835033B2 (ja) 表示処理装置、画像形成装置、表示処理方法、及び表示処理プログラム
JP2017204779A5 (ja)
JP2005202611A (ja) 表示制御装置
JPWO2017018092A1 (ja) 入力装置
JP6299883B2 (ja) 表示装置、画像形成装置、及び表示方法
JP6365293B2 (ja) 表示装置、画像形成装置、及び表示方法
US9232111B2 (en) Image forming apparatus and computer
EP4273689A1 (en) Image forming apparatus and input device
JP7283231B2 (ja) 画像形成装置
JP7200635B2 (ja) 画像形成システム
US20240155061A1 (en) Image forming apparatus
US10965825B2 (en) Image reading apparatus comprising display panel which serves as operation portion and image reader, image forming apparatus, non-transitory storage medium, and control method
JP6638690B2 (ja) 画像形成装置、表示制御方法
JP6350470B2 (ja) 表示装置、及び画像形成装置
JP3934646B2 (ja) 画像形成装置
JP6394572B2 (ja) ユーザーインターフェイス装置、画像処理装置、報知方法