JP2011164746A - 端末装置、持ち手検出方法、及びプログラム - Google Patents

端末装置、持ち手検出方法、及びプログラム Download PDF

Info

Publication number
JP2011164746A
JP2011164746A JP2010024076A JP2010024076A JP2011164746A JP 2011164746 A JP2011164746 A JP 2011164746A JP 2010024076 A JP2010024076 A JP 2010024076A JP 2010024076 A JP2010024076 A JP 2010024076A JP 2011164746 A JP2011164746 A JP 2011164746A
Authority
JP
Japan
Prior art keywords
pen
hand
coordinates
operator
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010024076A
Other languages
English (en)
Inventor
Masaki Morita
雅紀 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010024076A priority Critical patent/JP2011164746A/ja
Publication of JP2011164746A publication Critical patent/JP2011164746A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】ペンタッチによる入力を受け付ける端末装置が、操作者の利き手(ペンの持ち手)を正しく判断し、その利き手に合ったGUIを提供すること。
【解決手段】電磁誘導方式ペン検出部15、静電容量検出部方式手指検出部16は、ペン3のペン先座標(Xp,Yp)、手のひら座標(Xh,Yh)を取得する。ペン先X座標Xpが手のひらX座標Xhより小さい場合、端末装置は右利き手用GUIを設定し、ペン先X座標Xpが手のひらX座標Xhより大きい場合、左利き手用GUIを設定する。
【選択図】図6

Description

本発明は、操作者からペンによるタッチ操作による指示を入力する端末装置、持ち手検出方法、及びプログラムに関する。
近年、タッチ操作によって入力を受け付ける装置が多く存在する。このような装置では、表示部に操作メニュー画面等を表示し、操作者がメニュー等を選択して指等でタッチし、そのタッチの位置を認識することによって、さまざまな動作を行う。このとき、操作者には利き手があるので、利き手に応じてメニュー画面を変更することも可能である。特許文献1では、タッチパネルにおける操作者のタッチ分布から操作者の利き手を判定し、操作しやすい画面表示を行う技術が記載されている。
一方、近年では、ペンを用いたタッチ操作によって入力を受け付ける端末装置も多く存在する。端末装置の表示部にメニュー画面等を表示し、操作者がペンによりメニューを選択すると、端末はペンによるタッチ操作の入力を受け付けて様々な動作を行う。
特開2006−331092号公報
ペンを用いて指示する場合でも、操作者には利き手がある。従って、操作者は、利き手にペンを持って入力を行うため、端末装置の画面上に表示される指示部品(GUIボタン(GUI:Graphic User Interface)など)が配置される位置によっては、操作の快適性が異なる。例えば、画面の右端にGUIボタンが表示される場合、左利きの操作者は、左手にペンを持ち、画面を横切って画面右端のGUIボタンにペンタッチすることになり、右利きの操作者よりも腕を多く伸ばす必要がある。さらには、伸ばした腕により画面が隠されて画面の状況を確認できないといった問題がある。このため、操作性が悪くなるだけでなく、ボタンの選択ミスといった誤動作を起こしやすいという問題も生じる。
また、特許文献1に記載されたような方法では、ペン入力を受け付ける端末装置における操作者の利き手は正しく判定できないという問題もある。
本発明は、以上の点に鑑みてなされたものであり、ペンタッチによる入力を受け付ける端末装置が操作者の利き手(ペンの持ち手)を正しく判断し、左右の利き手に合ったGUIを実現する端末装置、持ち手検出方法、及び、そのプログラムを提供することを目的とする。
前述した目的を達成するために本発明は、画面を表示する表示体を有し、前記画面上の位置を指示するペンの入力を受け付ける端末装置であって、前記ペンによって指示されたペン先の位置を示す座標と、前記ペンを持つ操作者の手が前記画面上に触れられた位置を示す手の位置の座標とを検出する検出部と、前記検出されたペン先の位置の座標と手の位置の座標とに基づいて、前記ペンを持つ操作者の持ち手が右手であるか、左手であるかを判定する判定部、を有することを特徴とする。
また、本発明は、上記に記載の発明において、前記判定部によるペンの持ち手の判定結果に基づいて、GUIを配置する位置を決定することを特徴とする。
また、本発明は、上記に記載の発明において、前記判定部は、前記検出部により検出された、水平方向の軸上における前記ペン先の位置の座標と前記手の位置の座標に基づいて、持ち手を判定することを特徴とする。
また、本発明は、上記に記載の発明において、前記判定部は、前記検出部の予め決められた原点から前記ペンのペン先の位置の座標までの距離と、前記検出部の予め決められた原点から前記ペンを持つ操作者の手の位置の座標までの距離とに基づいて、持ち手を判定することを特徴とする。
また、本発明は、上記に記載の発明において、前記判定部は、前記検出部によって、前記ペンのペン先の位置の座標と、前記ペンを持つ操作者の手の位置の座標との2箇所の座標が検出された場合に、持ち手を判定することを特徴とする。
また、本発明は、上記に記載の発明において、前記判定部は、持ち手の判定を行った後、前記検出部が再度前記2箇所の座標を検出した場合に、再度持ち手を判定し、前回の持ち手の判定結果と今回の持ち手の判定結果とが異なる場合に、GUIの配置位置を変更することを特徴とする。
また、本発明は、画面を表示する表示体を有し、前記画面上の位置を指示するペンの入力を受け付ける端末装置であるコンピューターを用いて、前記コンピューターの検出部が、前記ペンによって指示されたペン先の位置を示す座標と、前記ペンを持つ操作者の手が前記画面上に触れられた位置を示す手の位置の座標とを検出するステップと、前記コンピューターの判定部が、前記検出されたペン先の位置の座標と手の位置の座標とに基づいて、前記ペンを持つ操作者の持ち手が右手であるか、左手であるかを判定するステップと、を実行することを特徴とする。
また、本発明は、画面を表示する表示体を有し、前記画面上の位置を指示するペンの入力を受け付けるコンピューターに、前記ペンによって指示されたペン先の位置を示す座標と、前記ペンを持つ操作者の手が前記画面上に触れられた位置を示す手の位置の座標とを検出する検出手段、前記検出されたペン先の座標と手の位置の座標とに基づいて、前記ペンを持つ操作者の持ち手が右手であるか、左手であるかを判定する判定手段、として機能させるためのプログラムである。
本発明によれば、ペンタッチによる入力を受け付ける端末装置において、操作者の利き手(ペンの持ち手)がどちらであるかを正しく判断することが可能である。
また、操作者のペンの持ち手に合ったGUIを設定することで、操作者の操作性を向上させ、誤動作を防止することが可能となる。
また、一度持ち手を判定した場合でも、ペン先の位置座標と手のひらの座標が再度検出された場合に、持ち手の再判定を行い、前回の判定結果と異なる場合はGUIを変更することで、操作者の操作性を向上することが可能である。
本発明の実施形態に係る端末装置の概略構成図である。 同実施形態に係る端末装置の表示制御処理の流れを示すフローチャートである。 同実施形態に係る端末装置の外観とログイン画面を示す図である。 同実施形態に係る端末装置の利き手検出処理の流れを示すフローチャートである。 同実施形態に係るペン操作の様子を示す図である。 同実施形態に係るペン先と手のひらの位置関係を示す図である。 同実施形態に係る右利き検出時のGUI設定の一例を示す図である。 同実施形態に係る左利き検出時のGUI設定の一例を示す図である。
以下に、添付図面を参照しながら、本発明の好適な実施形態について詳細に説明する。
図1は、端末装置1の概略構成図である。端末装置1は、CPU11(CPU:Central Processing Unit)、ROM12(ROM:Read Only Memory)、RAM13(RAM:Random Access Memory)、タブレット制御部14、電磁誘導方式ペン検出部15、静電容量検出部方式手指検出部16、電源制御部17、バッテリ18、端末記憶装置19、表示体制御部20、表示体21を有する。端末装置1は、ペン3による位置の指示を受け付ける。ペン3はコイル31を有する。
CPU11は、中央演算処理装置であり、プログラムに従って、端末装置1の各部、各装置を制御し、後述する利き手判定処理及び表示処理等を実行する。ROM12は、読み出し専用の記憶装置であり、CPU11が実行する利き手判定処理及び表示処理等のプログラム等を記憶する。RAM13は、CPU11等が処理を行う際に必要なデータ等を読み書きする記憶装置である。
タブレット制御部14は、入力装置となるタブレットを制御する。端末装置1において、ペン3、電磁誘導方式ペン検出部15、静電容量検出部方式手指検出部16によりタブレットが構成される。ペン3は、電磁誘導方式ペン検出部15上の位置を指示するものであり、電磁誘導方式ペン検出部15はペン3によって指示された位置を検出し、座標を算出する。
その検出方法の一例を以下に説明する。
例えば、電磁誘導方式ペン検出部15は、表示体21に設置された板状のパネルであり、パネルには複数のループ状のセンサコイルが平行に配置されており、一方、ペン3のコイル31は、コンデンサと接続してLC共振回路を形成している。電磁誘導方式ペン検出部15のセンサコイルに短時間だけ交流電流を流すと、電磁誘導方式ペン検出部15の入力面上に磁界が発生し、近づけたペン3のコイル31に電流が流れてペン3側のコンデンサに電気が蓄積される。センサコイルの電流を切ると、ペン3のコンデンサに蓄えられた電気を電源としてコイル31に電流が流れてペン先に磁界が発生する。ペン先に発生した磁界によりセンサコイルに誘導電流が流れ、電磁誘導方式ペン検出部15は、複数のセンサコイルのうち電流が流れたセンサコイルの位置をペン3の位置として検出する。
また、静電容量検出部方式手指検出部16は、操作者の手(あるいは手のひらの一部)や指が触れた場合に、その位置を検出し、座標を算出する。例えば、表示体21のパネル等の表面に導電性材を施し、表面に一様の電界を発生させておき、静電容量検出部方式手指検出部16は、操作者の手や指がパネルに触れることによって生じる電界の変化を基に、操作者の手や指の触れた位置を検出し、座標を算出する。
電源制御部17は、端末装置1の電源となるバッテリ18を制御する。端末記憶装置19は、ハードディスク等の記憶装置であり、データ等を記憶する。表示体制御部20は、表示体21の表示を制御する。表示体21は、液晶パネル等のディスプレイ装置である。ここで、表示体21と電磁誘導方式ペン検出部15、静電容量検出部方式手指検出部16とは組み合わせて設けられ、表示体21に表示された表示をペン3や手、指等で指示された場合に、電磁誘導方式ペン検出部15、静電容量検出部方式手指検出部16はその位置を検出する。即ち、表示体21の表示画面上の位置と、電磁誘導方式ペン検出部15上の位置と、静電容量検出部方式手指検出部16上の位置の座標は一意的に対応される。
次に、端末装置1の動作について説明する。
図2は、端末装置1の表示処理の流れを示すフローチャートである。
表示体制御部20は、表示体21に初期のログイン画面を表示させ(ステップS101)、ペン3によるペンタップ(入力)を受け付ける(ステップS102)。入力がない場合(ステップS102で「入力なし」)ステップS102に戻り、更にペンタップを待ち受ける。
ペン3による入力があった場合(ステップS102で「入力あり」)、CPU1は操作者の左右の利き手(ペンの持ち手)を検出する利き手検出処理を行い(ステップS103)、利き手を判定する(ステップS104)。ステップS104の検出の結果、利き手が右手であった場合、CPU11は、右利きユーザーインターフェイス(UI)の設定を決定する(ステップS105)。ステップS104の検出の結果、利き手が左手であった場合、CPU11は、左利きユーザーインタフェース(UI)の設定を決定する(ステップS106)。表示体制御部20は、それぞれのユーザーインターフェイスの設定に従って表示体21に画面を表示する。
以下、各ステップの処理について詳細に説明する。
ステップS101において、表示体制御部20は表示体21にログイン画面を表示する。図3は、端末装置1の外観とログイン画面の一例を示す図である。端末装置1の表示体21の両側には右利き用操作用ボタン41−1と左利き用操作ボタン41−2が設けられる。右利き用操作用ボタン41−1、左利き用操作ボタン41−2に割り当てられる機能は差左右に関わらず同じである。
端末装置1の電源が投入されると、表示体21には図3に示すようなログイン画面が表示される。操作者は、ペン3を画面上に当接させることによって、ログイン画面の表示を指示し、入力操作を行う。例えば、操作者が「ユーザーA」である場合、ログイン画面上に表示された「ユーザーA」の表示をペン3で指示する。電磁誘導方式ペン検出部15、静電容量検出部方式手指検出部16は、ペン3、操作者の手や指の接触を入力として受け付ける。ここでは、操作者がペン入力を行う際、画面の何れかの位置をペンでタッチするとともに、手のひらの一部も画面上に触れるため、電磁誘導方式ペン検出部15がペン先の位置を検出し、静電容量検出部方式手指検出部16が操作者の手のひらの位置を検出する。
ペン3による入力が確認されると、ステップS103における利き手判定処理が行われる。
図4は、利き手判定処理の流れを示すフローチャートである。電磁誘導方式ペン検出部15、静電容量検出部方式手指検出部16は、それぞれ、ペン3のペン先座標(Xp,Yp)、手のひら座標(Xh,Yh)を取得する(ステップS201)。CPU11は、取得したペン先座標(Xp,Yp)と手のひら座標(Xh,Yh)を比較する(ステップS202)。
ステップS202においてペン先X座標Xpが手のひらX座標Xhより小さい場合(Xp<Xh)、CPU11は操作者が右利き手(持ち手が右手)であると設定する(ステップS203)。
ステップS202においてペン先X座標Xpが手のひらX座標Xhより大きい場合(Xp>Xh)、CPU11は操作者が左利き手(持ち手が左手)であると設定する(ステップS204)。
図5は、ペン3を操作する際の手とペン3の様子を示す図である。図6は、ペン3のペン先と手のひらの位置関係を示す図である。
左利きである操作者は、図5(a)に示すように左手でペン3を持ち、図3に示すログイン画面で「ユーザーA」を指示する。この際、静電容量検出部方式手指検出部16が検出した操作者の手のひら接触面51−2と、電磁誘導方式ペン検出部15が検出したペン3のペン先との位置関係は図6(b)に示すものとなる。
ここで、手のひらの位置座標として、手のひら接触面51−2の代表となる点(例えば、接触面51−2の重心の位置を算出して得られた座標を示す点)の位置hの座標(Xh,Yh)とし、ペン先位置pの座標を(Xp,Yp)とすると、操作者の利き手が左利きである場合は「Xp>Xh」となる。即ち、電磁誘導方式ペン検出部15、静電容量検出部方式手指検出部16のそれぞれが検出したペン3のペン先X座標Xpと手のひらX座標Xhを比較して、「Xp>Xh」であれば、操作者はペン3を左手に持っており左利きであると判定される。
また、右利きである操作者は、図5(b)に示すように右手でペン3を持ち、図3に示すログイン画面で「ユーザーA」を指示する。この際、静電容量検出部方式手指検出部16が検出した操作者の手のひら接触面51−1と、電磁誘導方式ペン検出部15が検出したペン3のペン先との位置関係は図6(a)に示すものとなる。
ここで、手のひらの位置座標として、手のひら接触面51−1の代表となる点(例えば、接触面51−1の重心など)の位置hの座標(Xh,Yh)とし、ペン先位置pの座標を(Xp,Yp)とすると、操作者の利き手が右利きである場合は「Xp<Xh」となる。即ち、電磁誘導方式ペン検出部15、静電容量検出部方式手指検出部16のそれぞれが検出したペン3のペン先X座標Xpと手のひらX座標Xhを比較して、「Xp<Xh」であれば、操作者はペン3を右手に持っていると判定され、右利きであると判定される。
尚、手のひら位置のX座標Xhとペン3のペン先位置のX座標Xpが等しい(Xp=Xh)場合は、右利きと判定して処理しても良いし、次のペンタップ入力を受け付けた場合に、再度利き手判定処理を行ってもよい。
以上のようにして、図2に示すステップS103、ステップS104の操作者の左右の利き手判定処理が行われる。
操作者の利き手が検出されると、CPU11は利き手に合わせたユーザーインターフェイスを設定するよう表示体制御部20に等に指示する。表示体制御部20は、表示体21に利き手に合わせた画面表示を行う。
操作者が右利きであると検出された場合、ステップS105に示すように、右利き用のユーザーインターフェイスが設定される。すなわち、右利き用として予めGUIボタンがレイアウトされた配置情報を記憶するメモリーから読み出し、この配置情報に従って、各GUIボタンを配置する。図7は、右利き検出時のユーザーインターフェイスの一例を示す図である。CPU11は、端末装置1の両側に配置された操作ボタンのうち、左利き用操作ボタン41−2の操作を無効にして入力を受け付けず、表示体制御部21は、スクロールバーなど画面を確認しながら操作するGUIボタン61を表示体21の右側の画面上に表示させる。
ここで、GUIボタン61を右側に表示することで、右利きの操作者は画面を確認しつつペン3で操作を指示することが容易となる。また、端末装置1の右側に配置された左利き用操作ボタン41−2を無効にすることで、GUIボタン61を操作するつもりで誤って操作ボタン41−2を押してしまうなどといった操作ミスを防止し、安全に作業を行うことができる。
また、操作者が左利きであると検出された場合、ステップS106に示すように、左利き用のユーザーインターフェイスが設定される。すなわち、左利き用として予めGUIボタンがレイアウトされた配置情報を記憶するメモリーから読み出し、この配置情報に従って、各GUIボタンを配置する。図8は、左利き検出時のユーザーインターフェイスの一例を示す図である。CPU11は、端末装置1の両側に配置された操作ボタンのうち、右利き用操作ボタン41−1の操作を無効にして入力を受け付けず、表示体制御部21は、スクロールバーなど画面を確認しながら操作するGUIボタン63を表示体21の左側の画面上に表示させる。
こうして、左利きの操作者も、右利きの操作者の場合と同様に、容易に安全に画面操作等を行うことが可能となる。
尚、図2に示すように初期のログイン画面にて操作者の利き手判定処理を行った後にも、利き手判定処理を行うことも可能である。
例えば、ログイン画面における入力で右利きであると判定された操作者において、以降の入力画面における操作において、再度ステップS102からステップS104の処理を続けて行い、左利きであると判定された場合は左利き用UIに設定しても良いし、表示体21の画面に「GUIを左利き用に設定しますか?」などと表示して操作者による入力を受けつけてもよい。
また、操作者の利き手を検出したら、操作者のユーザー情報として端末記憶装置19に記憶することも可能である。
また、ペン3のペン先や手のひらの検出において、感圧式センサを用いることも可能である。感圧式センサとは、圧力の強さを検出するセンサである。例えば、表示体21の上面に感圧式センサを配置して、ペン3の圧力と接触した手のひらの圧力とを比較し、ペン3のペン先の圧力の方が手のひらから受ける圧力より大きいことを利用してペン3のペン先と手のひらの位置関係を求めることも可能である。
また、ペン3のペン先と手のひらの両者の検出に静電容量検出方式のセンサを用いてもよい。
また、ペン先と手のひらの検出を前記の感圧式センサや静電容量検出方式センサで行い、表示体21に設けられたそれぞれのセンサパネルのペン先の接触領域と手のひらの接触領域の大きさの違いを用いて、ペン3と手のひらの位置座標を検出することも可能である。この場合、例えば、接触領域の大きい場合が手のひらであると判定され、接触領域の小さい場合がペン先であると判定され、それぞれの位置座標を検出することも可能である。
また、図2や図4に示すCPU11が実行するプログラムを作成し、ペンタブレットを有する汎用のコンピューターがそのプログラムを読み込んで端末装置1を実現することも可能である。このプログラムは、CD−ROM等の記録媒体に記録されてもよいし、ネットワークを介して流通させることも可能である。
1………端末装置
3………ペン
11………CPU
12………ROM
13………RAM
14………タブレット制御部
15………電磁誘導方式ペン検出部
16………静電容量方式手指検出部
17………電源制御部
18………バッテリ
19………端末記憶装置
20………表示体制御部
21………表示体

Claims (8)

  1. 画面を表示する表示体を有し、前記画面上の位置を指示するペンの入力を受け付ける端末装置であって、
    前記ペンによって指示されたペン先の位置を示す座標と、前記ペンを持つ操作者の手が前記画面上に触れられた位置を示す手の位置の座標とを検出する検出部と、
    前記検出されたペン先の位置の座標と手の位置の座標とに基づいて、前記ペンを持つ操作者の持ち手が右手であるか、左手であるかを判定する判定部、
    を有することを特徴とする端末装置。
  2. 前記判定部によるペンの持ち手の判定結果に基づいて、GUIを配置する位置を決定することを特徴とする請求項1記載の端末装置。
  3. 前記判定部は、前記検出部により検出された、水平方向の軸上における前記ペン先の位置の座標と前記手の位置の座標に基づいて、持ち手を判定することを特徴とする請求項1または請求項2に記載の端末装置。
  4. 前記判定部は、前記検出部の予め決められた原点から前記ペンのペン先の位置の座標までの距離と、前記検出部の予め決められた原点から前記ペンを持つ操作者の手の位置の座標までの距離とに基づいて、持ち手を判定することを特徴とする請求項1または請求項2に記載の端末装置。
  5. 前記判定部は、前記検出部によって、前記ペンのペン先の位置の座標と、前記ペンを持つ操作者の手の位置の座標との2箇所の座標が検出された場合に、持ち手を判定することを特徴とする請求項1から請求項4のいずれか1つに記載の端末装置。
  6. 前記判定部は、持ち手の判定を行った後、前記検出部が再度前記2箇所の座標を検出した場合に、再度持ち手を判定し、前回の持ち手の判定結果と今回の持ち手の判定結果とが異なる場合に、GUIの配置位置を変更することを特徴とする請求項2から請求項5のいずれか1つに記載の端末装置。
  7. 画面を表示する表示体を有し、前記画面上の位置を指示するペンの入力を受け付ける端末装置であるコンピューターを用いて、
    前記コンピューターの検出部が、
    前記ペンによって指示されたペン先の位置を示す座標と、前記ペンを持つ操作者の手が前記画面上に触れられた位置を示す手の位置の座標とを検出するステップと、
    前記コンピューターの判定部が、
    前記検出されたペン先の位置の座標と手の位置の座標とに基づいて、前記ペンを持つ操作者の持ち手が右手であるか、左手であるかを判定するステップと、
    を実行することを特徴とする持ち手検出方法。
  8. 画面を表示する表示体を有し、前記画面上の位置を指示するペンの入力を受け付けるコンピューターに、
    前記ペンによって指示されたペン先の位置を示す座標と、前記ペンを持つ操作者の手が前記画面上に触れられた位置を示す手の位置の座標とを検出する検出手段、
    前記検出されたペン先の座標と手の位置の座標とに基づいて、前記ペンを持つ操作者の持ち手が右手であるか、左手であるかを判定する判定手段、
    として機能させるためのプログラム。
JP2010024076A 2010-02-05 2010-02-05 端末装置、持ち手検出方法、及びプログラム Withdrawn JP2011164746A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010024076A JP2011164746A (ja) 2010-02-05 2010-02-05 端末装置、持ち手検出方法、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010024076A JP2011164746A (ja) 2010-02-05 2010-02-05 端末装置、持ち手検出方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2011164746A true JP2011164746A (ja) 2011-08-25

Family

ID=44595387

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010024076A Withdrawn JP2011164746A (ja) 2010-02-05 2010-02-05 端末装置、持ち手検出方法、及びプログラム

Country Status (1)

Country Link
JP (1) JP2011164746A (ja)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054738A (ja) * 2011-08-31 2013-03-21 Samsung Electronics Co Ltd 携帯端末機のユーザインターフェース提供方法及びその装置
JP2013065092A (ja) * 2011-09-15 2013-04-11 Brother Ind Ltd 電子筆記装置
JP2013200835A (ja) * 2012-03-26 2013-10-03 Brother Ind Ltd 電子筆記装置
US20130321328A1 (en) * 2012-06-04 2013-12-05 Samsung Electronics Co. Ltd. Method and apparatus for correcting pen input in terminal
JP2014041498A (ja) * 2012-08-23 2014-03-06 Sanyo Electric Co Ltd 通信端末装置
WO2014054861A1 (en) * 2012-10-05 2014-04-10 Samsung Electronics Co., Ltd. Terminal and method for processing multi-point input
CN103793080A (zh) * 2012-10-31 2014-05-14 株式会社东芝 电子设备和绘制方法
WO2014105848A1 (en) * 2012-12-28 2014-07-03 Intel Corporation Adapting user interface based on handedness of use of mobile computing device
WO2015033751A1 (ja) * 2013-09-04 2015-03-12 シャープ株式会社 表示装置
JP2015118541A (ja) * 2013-12-18 2015-06-25 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
WO2015141529A1 (ja) * 2014-03-20 2015-09-24 シャープ株式会社 入力装置および入力制御プログラム
EP2811373A3 (en) * 2013-06-04 2015-10-28 Samsung Electronics Co., Ltd Method for correcting coordinates of portable electronic device using electronic pen
US9317199B2 (en) 2013-02-08 2016-04-19 International Business Machines Corporation Setting a display position of a pointer
US9323386B2 (en) 2011-09-29 2016-04-26 Samsung Electronics Co., Ltd. Pen system and method for performing input operations to mobile device via the same
KR101617233B1 (ko) 2014-08-26 2016-05-02 (주)엔디비젼 Cctv 시스템을 제어하기 위한 모니터 장치 및 이를 위한 방법
WO2016183796A1 (zh) * 2015-05-19 2016-11-24 华为技术有限公司 一种用于识别用户操作模式的方法及移动终端
CN106598417A (zh) * 2016-10-31 2017-04-26 努比亚技术有限公司 一种终端熄屏控制装置及方法
EP2657815A3 (en) * 2012-04-24 2017-06-28 Sony Mobile Communications, Inc. Terminal device and touch input method
CN110955350A (zh) * 2018-09-26 2020-04-03 富士施乐株式会社 信息处理系统及记录介质
US10712874B2 (en) 2017-09-27 2020-07-14 Seiko Epson Corporation Position detection device, position detection system, and method for controlling position detection device
CN112433624A (zh) * 2020-11-24 2021-03-02 维沃移动通信有限公司 倾角获取方法、装置和电子设备
JP2023042325A (ja) * 2021-09-14 2023-03-27 カシオ計算機株式会社 電子機器、利き手判定方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02139620A (ja) * 1988-11-19 1990-05-29 Fuji Xerox Co Ltd 入力表示一体型装置
JPH0695789A (ja) * 1992-09-10 1994-04-08 Toshiba Corp 情報処理装置
JPH09305315A (ja) * 1996-05-16 1997-11-28 Toshiba Corp 携帯型情報機器
JPH11224155A (ja) * 1998-02-04 1999-08-17 Pfu Ltd 情報装置
JP2006172367A (ja) * 2004-12-20 2006-06-29 Yamaha Corp 入力装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02139620A (ja) * 1988-11-19 1990-05-29 Fuji Xerox Co Ltd 入力表示一体型装置
JPH0695789A (ja) * 1992-09-10 1994-04-08 Toshiba Corp 情報処理装置
JPH09305315A (ja) * 1996-05-16 1997-11-28 Toshiba Corp 携帯型情報機器
JPH11224155A (ja) * 1998-02-04 1999-08-17 Pfu Ltd 情報装置
JP2006172367A (ja) * 2004-12-20 2006-06-29 Yamaha Corp 入力装置

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013054738A (ja) * 2011-08-31 2013-03-21 Samsung Electronics Co Ltd 携帯端末機のユーザインターフェース提供方法及びその装置
JP2013065092A (ja) * 2011-09-15 2013-04-11 Brother Ind Ltd 電子筆記装置
US9323386B2 (en) 2011-09-29 2016-04-26 Samsung Electronics Co., Ltd. Pen system and method for performing input operations to mobile device via the same
JP2013200835A (ja) * 2012-03-26 2013-10-03 Brother Ind Ltd 電子筆記装置
US11042244B2 (en) 2012-04-24 2021-06-22 Sony Corporation Terminal device and touch input method
EP2657815A3 (en) * 2012-04-24 2017-06-28 Sony Mobile Communications, Inc. Terminal device and touch input method
US20130321328A1 (en) * 2012-06-04 2013-12-05 Samsung Electronics Co. Ltd. Method and apparatus for correcting pen input in terminal
JP2014041498A (ja) * 2012-08-23 2014-03-06 Sanyo Electric Co Ltd 通信端末装置
WO2014054861A1 (en) * 2012-10-05 2014-04-10 Samsung Electronics Co., Ltd. Terminal and method for processing multi-point input
US9477398B2 (en) 2012-10-05 2016-10-25 Samsung Electronics Co., Ltd. Terminal and method for processing multi-point input
CN103793080A (zh) * 2012-10-31 2014-05-14 株式会社东芝 电子设备和绘制方法
US8947397B2 (en) 2012-10-31 2015-02-03 Kabushiki Kaisha Toshiba Electronic apparatus and drawing method
JP2014092809A (ja) * 2012-10-31 2014-05-19 Toshiba Corp 電子機器および描画方法
WO2014105848A1 (en) * 2012-12-28 2014-07-03 Intel Corporation Adapting user interface based on handedness of use of mobile computing device
CN104798030A (zh) * 2012-12-28 2015-07-22 英特尔公司 基于移动计算设备的使用的利手性适配用户接口
JP2016505945A (ja) * 2012-12-28 2016-02-25 インテル コーポレイション モバイルコンピューティングデバイスの使用利き手に基づくユーザインタフェースの適合
US9317199B2 (en) 2013-02-08 2016-04-19 International Business Machines Corporation Setting a display position of a pointer
EP2811373A3 (en) * 2013-06-04 2015-10-28 Samsung Electronics Co., Ltd Method for correcting coordinates of portable electronic device using electronic pen
US9262028B2 (en) 2013-06-04 2016-02-16 Samsung Electronics Co., Ltd. Method for correcting coordinates of portable electronic device using electronic pen
WO2015033751A1 (ja) * 2013-09-04 2015-03-12 シャープ株式会社 表示装置
US10048728B2 (en) 2013-12-18 2018-08-14 Canon Kabushiki Kaisha Information processing apparatus, method, and storage medium
JP2015118541A (ja) * 2013-12-18 2015-06-25 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
WO2015141529A1 (ja) * 2014-03-20 2015-09-24 シャープ株式会社 入力装置および入力制御プログラム
KR101617233B1 (ko) 2014-08-26 2016-05-02 (주)엔디비젼 Cctv 시스템을 제어하기 위한 모니터 장치 및 이를 위한 방법
WO2016183796A1 (zh) * 2015-05-19 2016-11-24 华为技术有限公司 一种用于识别用户操作模式的方法及移动终端
CN106598417A (zh) * 2016-10-31 2017-04-26 努比亚技术有限公司 一种终端熄屏控制装置及方法
US10712874B2 (en) 2017-09-27 2020-07-14 Seiko Epson Corporation Position detection device, position detection system, and method for controlling position detection device
CN110955350A (zh) * 2018-09-26 2020-04-03 富士施乐株式会社 信息处理系统及记录介质
CN112433624A (zh) * 2020-11-24 2021-03-02 维沃移动通信有限公司 倾角获取方法、装置和电子设备
JP2023042325A (ja) * 2021-09-14 2023-03-27 カシオ計算機株式会社 電子機器、利き手判定方法およびプログラム
JP7322933B2 (ja) 2021-09-14 2023-08-08 カシオ計算機株式会社 電子機器、利き手判定方法およびプログラム

Similar Documents

Publication Publication Date Title
JP2011164746A (ja) 端末装置、持ち手検出方法、及びプログラム
JP4787087B2 (ja) 位置検出装置及び情報処理装置
EP3133483B1 (en) Touchscreen apparatus and user interface processing method for the touchscreen apparatus
US8570283B2 (en) Information processing apparatus, information processing method, and program
CN102193673B (zh) 位置检测装置
JP6132644B2 (ja) 情報処理装置、表示制御方法、コンピュータプログラム、及び記憶媒体
WO2012150697A1 (ja) タッチパネル方式の携帯端末及び入力操作方法
WO2016006272A1 (ja) 位置指示器、位置検出装置及び位置検出装置の入力制御方法
US20120242594A1 (en) Input device and input method
WO2013189014A1 (zh) 终端和界面操作管理方法
KR101913817B1 (ko) 터치스크린 입력 처리 방법 및 장치
JP2011081646A (ja) 情報処理装置、情報処理方法およびプログラム
JP5008707B2 (ja) 入力表示ボード兼テーブル
JP2012199888A (ja) 携帯端末
JP2013145556A (ja) 電子機器およびその制御方法
JP2007157107A (ja) 情報処理装置、位置検出装置及び操作検出用センス部品
JP2011134273A (ja) 情報処理装置、情報処理方法およびプログラム
JP2010020658A (ja) 情報端末装置およびその入力制御方法
US20150160854A1 (en) Input apparatus, input determination method, and recording medium storing program
JP2015014933A (ja) 情報処理装置及びその制御方法とプログラム
JP5668992B2 (ja) 抵抗膜式タッチパネルを備えた電子機器
JP5996079B1 (ja) 情報処理装置、ソフトウェアキーボード表示方法、及びプログラム
KR20150054488A (ko) 디지타이저 및 그의 서로 다른 공진 주파수를 갖는 디바이스 검출 방법
KR102131776B1 (ko) 입력 장치 및 그를 포함하는 전자 장치
JP6508652B2 (ja) 情報端末装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130612

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20140221