JP5705885B2 - 入力表示装置 - Google Patents

入力表示装置 Download PDF

Info

Publication number
JP5705885B2
JP5705885B2 JP2013002147A JP2013002147A JP5705885B2 JP 5705885 B2 JP5705885 B2 JP 5705885B2 JP 2013002147 A JP2013002147 A JP 2013002147A JP 2013002147 A JP2013002147 A JP 2013002147A JP 5705885 B2 JP5705885 B2 JP 5705885B2
Authority
JP
Japan
Prior art keywords
input
display
area
hand
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013002147A
Other languages
English (en)
Other versions
JP2014134938A (ja
Inventor
大樹 芳野
大樹 芳野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2013002147A priority Critical patent/JP5705885B2/ja
Priority to US14/146,046 priority patent/US9141205B2/en
Priority to CN201410003427.7A priority patent/CN103914161B/zh
Publication of JP2014134938A publication Critical patent/JP2014134938A/ja
Application granted granted Critical
Publication of JP5705885B2 publication Critical patent/JP5705885B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode

Description

本発明は、タッチパネルなどの入力装置を備えたペンによる手書き入力が可能な入力表示装置に関するもので、特に画面を水平或いは、水平に近い状態にして使用する入力表示装置に関する。
従来、表示装置にタッチパネルなどの入力装置が重ねられた入力表示装置が多用されている。タッチパネルとしては、抵抗膜方式や、静電容量方式、表示部の画素に光センサを備えた光センサ内蔵LCD方式などがある。
このような入力表示装置の中でも、例えば、テーブルに画面が設けられたテーブル型の入力表示装置のように、画面を水平状態にて使用するものがある。画面を水平状態で使用する入力表示装置においては、入力表示装置に対するユーザの位置に応じて表示方向(表示される画像の向き)を換えることが行われている。従来、ユーザの位置を特定して表示方向を制御する技術として、種々のものが提案されている。
例えば、特許文献1には、テーブル型の入力表示装置に赤外線センサを設け、該赤外線センサにてユーザを検出して、検出したユーザよりみて画像が正表示されるように、表示方向を制御する提案がされている。
また、特許文献2には、情報端末装置における画面の周囲の4角にセンサを設け、該センサをペンにて接触することにより、表示方向を決定する提案がされている。また、特許文献2には、電源投入時に、画像の向きに応じて4分割した画面を表示し、何れかの画面がペンにて接触されることで選択されると、選択された画面に応じた表示方向に決定する提案もされている。
特許文献3には、画面が設けられたテーブルの周囲にセンサを設け、該センサにてユーザの位置を検出して、検出したユーザの位置とペン入力位置とで、ユーザの視線の方向を表示方向とする提案がされている。
一方、ユーザの位置を特定して表示方向を制御する技術ではないが、特許文献4,5には、画面にペン先や指先が触れることによる本来の入力以外に、画面に手の腹などが触れる手つきによる誤った入力がなされて複数の入力が検出された場合に、手つきによる入力を排除する技術が提案されている。具体的には、手つきによって入力される面積と、ペン先や指先が触れることによって入力される面積との違いによって、最小の面積の入力を有効とし、手つきによる入力を無効とする。
特開2001−350588号公報(2001年12月21日公開) 特開平11−175228号公報(1999年7月2日公開) 特開2000−163179号公報(2000年6月16日公開) 特開平7−306752号公報(1995年11月21日公開) 特開2006−39686号公報(2006年2月9日公開)
しかしながら、前記従来の表示方向を制御する技術には、以下のような問題がある。
例えば、特許文献1にて提案されているものでは、テーブル型の入力表示装置の周囲に複数のユーザがいる場合、その中のどのユーザが入力を行うかまでは検出できない。そのため、複数のユーザによる利用には対応できない。
特許文献2にて提案されている技術では、画面の周囲の4角に設けられたセンサにペンを接触させることで、複数のユーザに対応できる。また、4分割された画面を、電源投入時だけでなくユーザの指示にて表示可能とし、何れかの画面にペンを接触させることで、複数のユーザに対応できる。しかしながら、入力を行うユーザは、入力する度に、センサにペンを接触させたり、4分割画面を表示して画面にペンを接触させたりする、表示方向を指定するための操作が必要となる。
特許文献3にて提案されている技術では、装置を使用するにあたり、電子ペンと利用者の着座位置を一対一に対応付ける必要がある。そのため、複数人のユーザにて利用する場合には、複数のユーザそれぞれについて、電子ペンと利用者との対応を登録する必要がある。
一方、特許文献4,5にて提案されている技術では、手つきによる入力とペン先や指先による入力とを区別することはできるものの、画面におけるどの方向よりユーザが入力しているのかを知ることはできない。
本発明は、上記課題に鑑み成されたもので、情報の表示方向を指示するためだけの特別な操作をユーザが行わなくとも、ユーザの画面に対する入力操作に基づいて当該ユーザの画面に対する位置を特定して、情報をユーザに適した方向に表示することができる入力表示装置を提供することを目的としている。
上記の課題を解決するために、本発明の一態様に係る入力表示装置は、情報を表示する表示画面と、該表示画面に対する入力を検出するセンサとを備え、ペンを用いた入力操作が可能な入力表示装置であって、前記センサにて検出される入力領域について、当該入力領域の大きさに基づいて、ペン先による入力領域であるかペンを持つ手による入力領域であるかを判定する第1判定部と、前記第1判定部にてペン先によると判定されたペン先領域および手つきによると判定された手つき領域が、同一のユーザの入力操作によるペン先領域および手つき領域であるか否かを判定する第2判定部と、前記第2判定部にて同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域の相互の位置関係に基づいて、前記表示画面における情報の表示方向を切り換える表示切換部とを備えたことを特徴としている。
本発明の一態様によれば、情報の表示方向を指示するためだけの特別な操作をユーザが行わなくとも、ユーザの画面に対する入力操作に基づいて当該ユーザの画面に対する位置を特定して、情報をユーザに適した方向に表示することが可能になるという効果を奏する。
本発明の実施形態1である入力表示装置の構成を示すブロック図である。 実施形態1の入力表示装置に対して書き込み(入力)を行うユーザの位置と、入力表示画面に表示される画像の表示方向との関係を示す説明図である。 実施形態1の入力表示装置が備える静電容量センサにて検出された連続した範囲を示す説明図である。 実施形態1の入力表示装置における表示方向制御の手順を示すフローチャートである。 本発明の実施形態2である入力表示装置に対して書き込み(入力)を行うユーザの位置と、入力表示画面に表示される画像の表示方向との関係を示す説明図である。 実施形態2の入力表示装置の画面に入力ペンを用いて入力するユーザの位置に応じたメニュー表示の一例のツールバーを示す説明図である。 実施形態2の入力表示装置における表示方向制御の手順を示すフローチャートである。 実施形態3の入力表示装置における入力ユーザの位置と入力ユーザの利き手とを判断する方法を説明する図面である。 実施形態3の入力表示装置における入力ユーザの位置と入力ユーザの利き手とを判断する方法を説明する図面である。 実施形態3の入力表示装置における表示方向制御の手順を示すフローチャートである。 実施形態2,3の変形例の入力表示装置の表示方向の切り換えを示す説明図である。 実施形態4の入力表示装置における表示方向制御の手順を示すフローチャートである。 実施形態4の入力表示装置における表示方向制御の手順を示すフローチャートである。
本発明を以下の実施の形態により詳細に説明する。なお、以下の説明においては、同一の機能および作用を示す部材については、同一の符号を付し、説明を省略する。
〔実施形態1〕
図2は、本発明の実施形態1である入力表示装置1Aに対して書き込み(入力)を行うユーザの位置と、入力表示画面(以下、単に画面と称する)10に表示される画像の表示方向との関係を示す説明図である。
図2の(a)は、ユーザAにより入力が行われている状態を示している。画面10に表示される画像は、ユーザAより見て正方向を向いている。これに対して、図2の(b)は、ユーザAとは画面10を挟んで対峙するユーザBがユーザAに代わって入力を開始した状態を示している。(b)では、画面10の表示は、ユーザAが入力していたときの向きから180°回転して、ユーザBより見て正方向を向いている。以下、画面10に対して入力を行っているユーザを入力ユーザと称する。
図2の例に示すように、入力表示装置1Aにおいては、画面10を挟んで対峙する第1サイドと第2サイドとを、画面10に対してユーザが入力操作を行う位置としている。そして、ユーザによる入力操作に基づいて、入力ユーザの位置が第1サイドであるか第2サイドであるかを判別し、入力ユーザより見て正方向を向くように、画面10における情報の表示方向を制御する。
図1は、入力表示装置1Aの構成を示すブロック図である。入力表示装置1Aは、静電容量センサ2、センサ駆動部/容量値受信部3、表示部11、表示駆動部9、および制御部12を備えている。制御部12は、図示しないCPU,ROM,RAMにて構成され、形状/手つき判定部4、タッチ認識処理部5、ユーザ位置判断部6、表示方向判定部7および描画情報制御部8を構築する。
静電容量センサ(センサ)2は、タッチパネルであり、面状に複数本のマトリックス状に配置された線から、近接する物体との間の静電容量を検出することにより物体の形状を検出可能なセンサである。静電容量センサ2は、例えば、4096×2160の各位置の容量を検出することが可能である。ここでは、図2に示すように、第1サイドに位置するユーザより見て画面10の左上の角を(0,0)、右下の角を(4095、2159)として、座標が設定されており、それぞれの座標に対して容量が検出される。なお、タッチパネルは、静電容量方式に限らず、接触/非接触に関わらず、近接する物体の形状を捉えることが可能であれば、その他の方式のものであってもよい。
センサ駆動部/容量値受信部3は、静電容量センサ2を駆動し、その結果より静電容量値を検出するものである。センサ駆動部/容量値受信部3は、検出した静電容量値を制御部12に送る。
制御部(第1判定部、第2判定部、第3判定部、表示切換部)12における形状/手つき判定部4は、センサ駆動部/容量値受信部3にて検出された静電容量値に基づき、画面10に近接する物体の形状を判定するものである。画面に近接する物体の形状は、物体の近接を示す静電容量をもつ連続した範囲の形状に相当する。図3に、静電容量センサ2にて検出された連続した範囲を示す。
形状/手つき判定部4(第1判定部)は、検出された連続した範囲の大きさにより、検出した物体がペン先であるか、手つきであるかを判定する。なお、手つきとは、画面10に手の腹などが触れる現象である。具体的には、形状/手つき判定部4は、連続した範囲の面積を所定値Aと比較し、連続した範囲の面積が所定値A以下の場合はペン先と判定し、所定値Aよりも大きな場合は手つきと判定する。ここで、所定値Aとは、ペン先と想定される大きさの上限値である。
図3に示すように、連続した範囲の、X軸値の最小値(min_x),最大値(max_x)、Y軸値の最小値(min_y),最大値(max_y)に基づいて、Y軸方向の長さがX軸方向の長さよりも長い場合に縦長と判定し、Y軸方向の長さがX軸方向の長さよりも短い場合に横長と判定する。形状/手つき判定部4は、判定した結果を、タッチ認識処理部5とユーザ位置判断部6とに送る。
タッチ認識処理部5は、形状/手つき判定部4の判定結果に基づいてペン先の位置を判定し、ペン先の位置がメニュー位置であればメニュー処理を行い、メニュー位置でない場合は描画処理を行う。
ユーザ位置判断部(表示切換部)6は、形状/手つき判定部4の判定結果に基づいて、入力ユーザの画面10に対する位置を判断するものである。ユーザ位置判断部6の詳細については後述する。ユーザ位置判断部6は、判断した結果を描画情報制御部8に送る。
表示方向判定部(表示切換部)7は、ユーザ位置判断部6の判断した結果に基づいて、画面10における表示方向を判定するものである。ここでは、表示方向が判定される対象の表示は、画面10に表示される表示内容の全体、あるいはメニュー表示である。メニュー表示は、画面に表示される表示内容の一部に相当する。
描画情報制御部(表示切換部、描画部)8は、内部に図示していない記憶部を備えており、該記憶部に、手書きされた情報やグラフ情報等の描画情報と一時的に描画情報にオーバーラップして表示するメニュー情報とを別レイヤーにて保持している。描画情報制御部8は、タッチ認識処理部5からのメニュー処理あるいは描画処理と、表示方向判定部7からの表示方向の判定の結果とに基づいて、表示部11に表示する内容を記憶している上記記憶部の内容を更新するように制御する。
表示駆動部9は、描画情報制御部8に備えられた上記記憶部に記憶された情報に基づいて表示部11を駆動し、情報を表示部11に表示するものである。
表示部11は、情報をユーザに画面10に表示することにより与えるためのもので、例えば液晶表示、EL表示等の平面形状からなる。表示部11の上面に上記静電容量センサ2が重ねて設けられている。
図4は、入力表示装置1Aにおける表示方向制御の手順を示すフローチャートである。制御部12は、センサ駆動部/容量値受信部3にて検出された静電容量値の変化の有無にて、静電容量センサ2へのユーザによる入力を検出したか否かを判断する(S1)。ここで、ユーザによる入力を検出した場合はS2に進み、検出しない場合は入力を検出するまでS1の判断を繰り返す。
S2では、制御部12は、S1で検出した入力の内、連続した範囲を1つの入力として入力数を検出する。例えば、ペン先による入力だけを検出した場合や手つきによる入力だけを検出した場合は、それぞれ1として検出し、ペン先による入力と手つきによる入力の両方がある場合は2として検出する。
S3では、制御部12は、S2において入力としてカウントしたそれぞれの連続した範囲の大きさを検出する。S4では、制御部12は、S2にて検出した入力数が1であるか否かを判断し、入力数が1である場合はS12に進み、1でない場合はS5に進む。
S12では、制御部12は、その入力が手つきによる入力であるか否か、つまり、検出された連続した範囲が手つきによって入力された手つき領域であるか否かを判断する。検出された連続した範囲が手つき領域である場合はS1に戻り、手つき領域でない場合は、S13に進む。
具体的には、S3で検出した、連続した範囲の大きさと、前記所定値A(ペン先と想定される大きさの上限値)とを比較し、連続した範囲の大きさが所定値Aよりも大きい場合は、検出された連続した範囲は、手つき領域であると判断する。また、連続した範囲の大きさが所定値A以下である場合は、ペン先によって入力されたペン先領域であると判断する。
S13では、制御部12は、ペン先領域の中心部分の座標(中心座標)を算出して、入力処理である描画処理あるいはメニュー処理を行う。ペン先領域の中心座標が、メニュー表示の表示位置に対応する場合は、その位置に示されるメニュー処理を実行し、メニュー表示の表示位置でない場合は描画処理を行う。
S14では、再度入力を検出する。S14における入力の検出とは、静電容量センサ2による入力の有無と、入力領域の検出を意味する。S15では、制御部12は、S14にてペン先が検出されなくなったか否かを判断し、ペン先が画面10より離されてペン先が検出されなくなった場合はS1へと戻り、次の入力を待つ。一方、ペン先が画面10よりアップされず、ペン先が検出されている場合はS13へと戻り、S14にて検出した入力領域に対する処理を実行する。
一方、S2で検出された入力数が1ではなく、S4にてS5に進むと、制御部12は、入力数が2であるか否かを判断し、入力数が2である場合はS6に進み、2でない場合は処理できないとしてS1に戻る。入力数が2でない場合とは、ペン先と手つきによる入力以外に、他の入力が検出されている場合である。
S6では、制御部12は、S3で検出した2つの入力が、手つきによる入力とペン先による入力であるか否か、つまり、検出された2つの連続した範囲が手つき領域とペン先領域であるか否かを判断する。ここで、手つき領域とペン先領域でない場合はS1に戻り、手つき領域とペン先領域である場合は、S7に進む。
具体的には、S5で検出した2つの連続した範囲それぞれの大きさと前記所定値Aとを比較し、いずれかの連続した範囲の大きさが所定値A以下である場合は、手つき領域とペン先領域であると判断し、いずれの連続した範囲の大きさとも所定値Aよりも大きい場合は、手つき領域とペン先領域ではないと判断する。手つき領域とペン先領域ではない場合とは、両方ともが手つき領域である場合などである。
S7では、制御部12は、画面10上におけるペン先領域の位置と手つき領域の位置とから、入力ユーザの位置を判断する。具体的には、ペン先領域の中心座標と、手つき領域の中心座標とをそれぞれ算出し、第1サイドと第2サイドとが対峙する方向に平行なY軸の座標値を比較する。そして、ペン先領域の中心座標のY軸値が手つき領域の中心座標のY軸値よりも大きい場合は、入力ユーザの位置は、図2における第2サイドであると判断する。これは、図2(b)に示すように、第2サイドに位置するユーザBが入力ペンを用いて入力する場合、ペン先領域のY軸値が、ペンを持つ手の腹が触れた手つき領域のY軸値よりも必ず大きな値となることを利用している。
一方、ペン先領域の中心座標のY軸値が手つき領域の中心座標のY軸値以下の場合は、入力ユーザの位置は、図2における第1サイドであると判断する。これは、図2(a)に示すように、第1サイドに位置するユーザAが入力ペンを用いて入力する場合、ペン先領域のY軸値が、ペンを持つ手の腹が触れた手つき領域のY軸値よりも必ず小さな値となることを利用している。
S7において、画面10に対する入力ユーザの位置が第1サイドであると判断するとS9に進み、第2サイドであると判断するとS8を経て、S9に進む。S8では、画面10の表示方向を180度回転させる。入力表示装置1Aにおいては、第1サイドに位置するユーザに対して正方向を向いている方向を表示方向のデフォルトとしているため、入力ユーザの位置が第2サイドである場合は、S8に入って表示方向をデフォルトより180度回転させた表示とする。
S9では、制御部12は、表示方向を変更したか否かを判断し、変更した場合はS10に進み、変更していない場合はS13に進む。S10では、制御部12は、静電容量センサ2による入力を検出する。S11では、制御部12は、S10にてペン先が検出されなくなったか否かを判断し、ペン先が画面10より離されてペン先が検出されなくなった場合は、S1へと戻る。一方、ペン先が画面10よりアップされず、ペン先が検出されていると判断した場合はS10へと戻る。
これらS9〜S11の処理は、S8にて表示方向の変更を行う場合に、変更する前の表示状態では変更後の描画位置を特定することができないためである。S9〜S11の処理を行って、変更後の表示に対応して入力がなされるまでの間の描画を使用しないようにする。表示方向が変更されることで、入力ユーザは、一旦、ペン先をアップさせて画面10の変更後の表示に見合った正しい位置にペン先を置き直すので、表示方向を変更した場合は、ペン先がアップされたことを検出して、処理をS1に戻す。画面10の変更後の表示に見合った正しい位置にペン先が置き直された後は、S9からS13に進み、変更後の表示に対応した入力処理を検出する。
〔実施形態2〕
本発明のその他の実施形態について説明する。なお、説明の便宜上、実施形態1と同一の機能を有する部材には、同一の部材番号を付して説明を省略する。
実施形態1の入力表示装置1Aは、画面10を挟んで対峙する第1サイドおよび第2サイドのうちのどちら側からの入力であるかを判断するものであった。これに対し、実施形態2では、画面10の4辺に相当する第1サイド〜第4サイドのうちの何れの側からの入力であるかを判断するものである。
図5は、本発明の実施形態2である入力表示装置1Bに対して書き込み(入力)を行うユーザの位置と、入力表示画面(以下、単に画面と称する)10に表示される画像の表示方向との関係を示す説明図である。
本実施形態では、画面10が長方形であることを想定して説明しており、表示方向の変更はメニュー表示の向きを変更するとして説明を行う。しかしながら、画面10が正方形である場合や、画面10に表示する情報の一部が欠けても良い場合は、第1の実施の形態と同様に画面10に表示される表示内容の全体の表示方向を変えるようにしても良い。また、図5では、第1サイドと第3サイドに位置する2人のユーザが入力するようすが描かれているが、第1サイド〜第4サイドの各位置にユーザが位置しており、4人のユーザが入力することも可能である。
図6は、入力表示装置の画面10に入力ペン31を用いて入力するユーザの位置に応じたメニュー表示の一例のツールバー30を示す説明図である。
形状/手つき判定部(第2判定部,第3判定部)4は、手つき領域かペン先領域かの判定にて、ペン先と手つきの両方が同時に検出されたと判定すると、ペン先に対する手つきの位置が、同一のユーザによるものと想定できる所定の範囲内に存在するか否かを判定すると共に、手つきの形状が所定方向に対して縦長であるか横長であるかの判定を行う。なお、ペン先と手つきの両方が同時に検出されたと判定する場合の「同時」とは、画面10に対する手つきとペン先の各接触が同時に起こっている状態を指しており、接触開始のタイミングが同時という意味ではない。
図7は、入力表示装置1Bにおける表示方向制御の手順を示すフローチャートである。制御部12は、センサ駆動部/容量値受信部3にて検出された静電容量値の変化の有無にて、静電容量センサ2へのユーザによる入力を検出したか否かを判断する(S21)。ここで、ユーザによる入力を検出した場合はS22に進み、検出しない場合は入力を検出するまでS21の判断を繰り返す。
S22では、制御部12は、S21において入力が検出されたそれぞれの連続した範囲の大きさを検出する。S23では、制御部12は、S22で検出したそれぞれの連続した範囲の大きさに基づいて、ペン先領域が含まれているか否かを判断し、含まれていない場合はS21に戻り、含まれている場合はS24に進む。
具体的には、S22で検出した、それぞれの連続した範囲の大きさと前記所定値Aとを比較し、いずれかの連続した範囲の大きさが所定値A以下である場合は、ペン先領域が含まれている判断し、いずれの連続した範囲の大きさとも所定値Aよりも大きい場合は、ペン先領域が含まれていないと判断する。
S24では、制御部12は、S22で検出したそれぞれの連続した範囲の大きさに基づいて、手つき領域が含まれているか否かを判断し、含まれている場合はS25に進み、含まれていない場合はS31に進む。
具体的には、S22で検出した、それぞれの連続した範囲の大きさと前記所定値Aとを比較し、いずれかの連続した範囲の大きさが所定値Aよりも大きい場合は、手つきを含むと判断し、いずれの連続した範囲の大きさも所定値A以下である場合は、手つきを含まないと判断する。
S25では、制御部12は、S23にて含まれると判断したペン先領域と、S24にて含まれると判断した手つき領域とが、同一ユーザのものであるか否かを判断する。具体的には、ペン先領域と手つき領域とが、同一ユーザのものと想定できる所定の範囲内に存在するか否かを判断し、存在する場合は同一ユーザのものと判断し、存在しない場合は同一ユーザのものではないと判断する。ここで、同一ユーザのものであると判断するとS26に進み、同一ユーザのものでないと判断するとS31に進む。
S26では、制御部12は、メニューの表示の指示があったか否かを判断し、指示があったと判断した場合はS27に進み、指示がなかった場合はS31に進む。メニューの表示の指示方法に関しては、別途スイッチを操作する等の方法を採用することにより解決することが可能である。
S27では、S22にて検出された連続した範囲のうちの手つき領域について、X軸値の最小値(min_x),最大値(max_x)、Y軸値の最小値(min_y),最大値(max_y)に基づいて、縦長が横長かを判断する。前述したように、Y軸方向の長さがX軸方向の長さよりも長い場合は縦長と判定し、Y軸方向の長さがX軸方向の長さよりも短い場合は横長と判定する。
手つき領域の形状が縦長(Y軸に沿って長い)である場合は、図5における、対峙する方向がY軸に平行な第1サイドあるいは第3サイドからの入力であり、手つき領域の形状が横長(X軸に沿って長い)である場合は、図5における、対峙する方向がX軸に平行な第2サイドあるいは第4サイドからの入力でると判断することができる。
S27において、手つき領域の形状が縦長であると判断した場合はS28に進み、そうでないと判断した場合はS37に進む。
S28では、制御部12は、入力ユーザの位置が、第1サイドあるいは第3サイドの何れであるかを、画面10上におけるペン先領域の位置と手つき領域の位置とから判断する。なお、判断の手法は、実施形態1の入力表示装置1Aが、図4のフローチャートのS7において、入力ユーザの位置が第1サイドと第2サイドの何れであるかを判断した手法と同じである。
具体的には、ペン先領域の中心座標と、手つき領域の中心座標とをそれぞれ算出し、第1サイドと第3サイドとが対峙する方向に平行なY軸の座標値を比較する。そして、ペン先領域の中心座標のY軸値が手つき領域の中心座標のY軸値よりも大きい場合は、入力ユーザの位置は、図5における第3サイドであると判断する。一方、ペン先領域の中心座標のY軸値が手つき領域の中心座標のY軸値以下の場合は、入力ユーザの位置は、図5における第1サイドであると判断する。
S28において、入力ユーザの位置が第1サイドであると判断するとS30に進み、第3サイドであると判断するとS29に進む。S30では、第1サイドに位置するユーザから見て正方向を向くようにメニュー表示を行い、S29では、第3サイドに位置するユーザから見て正方向を向くようにメニュー表示を行う。
S37では、制御部12は、入力ユーザの位置が、第2サイドあるいは第4サイドの何れであるかを、画面10上におけるペン先領域の位置と手つき領域の位置とから判断する。具体的には、ペン先領域の中心座標と、手つき領域の中心座標とをそれぞれ算出し、第2サイドと第4サイドとが対峙する方向に平行なX軸の座標値を比較する。そして、ペン先領域の中心座標のX軸値が手つき領域の中心座標のX軸値よりも大きい場合は、入力ユーザの位置は、図5における第4サイドであると判断する。一方、ペン先領域の中心座標のX軸値が手つき領域の中心座標のX軸値以下の場合は、入力ユーザの位置は、図5における第2サイドであると判断する。
S37において、入力ユーザの位置が第2サイドであると判断するとS39に進み、第4サイドであると判断するとS38に進む。S39では、第2サイドに位置するユーザからみて正方向を向くようにメニュー表示を行い、S38では、第4サイドに位置するユーザから見て正方向を向くようにメニュー表示を行う。
上記S27〜S30、S37〜S39の処理は、ユーザによる入力操作に基づいて、入力ユーザの位置を判断し、入力ユーザから見て正方向を向くようにメニューを表示するための処理である。
一方、S31では、制御部12は、ペン先領域の中心座標を算出して、メニュー表示の位置であるか否かを判断する。なお、S26にてメニュー表示の指示がなかったと判断されて、S31に進むのは、予めS28、S30、S38、S39にてメニューが表示されていることが前提となる。S31において、ペン先領域の中心座標が、メニュー表示の位置である場合は、S32に進み、メニュー表示の表示位置でない場合は、S34に進む。
S32では、画面10よりペン先がアップUPされたか否かを判断し、ペン先がアップされたことを検出するとS33に進み、ペン先がアップされた位置のメニュー項目を実行する。
S34では、入力処理としてメニューで選択されている処理を行い、S35にてペン先の位置を検出し、S36にてペン先がアップされたか否かを判断して、ペン先がアップされるまで処理を繰り返す。
〔実施形態3〕
本発明のその他の実施形態について説明する。なお、説明の便宜上、実施形態1、2と同一の機能を有する部材には、同一の部材番号を付して説明を省略する。
実施形態2の入力表示装置1Bは、画面10の4辺に相当する第1サイド〜第4サイドのうちの何れかの側からの入力であるかを判断して、入力ユーザから見て正方向を向くようにメニューを表示するものである。これに対し、実施形態3の入力表示装置1Cは、入力表示装置1Bの機能に加えて、さらに、入力ユーザの利き手を検出して、手に隠れない位置にメニューを表示するものである。
図8、図9は、入力ユーザの位置と入力ユーザの入力を行っている手が左手か右手かの利き手とを判断する方法を説明する図面である。図8に示すように入力を行うことで、静電容量センサ2には、図9に示すような容量の変化が生じ、これにより、ペン先領域40と手つき領域41とを取得することができる。
このとき、図8に示すように、ペン先領域40を中心として4つの象限を想定する。そして、手つき領域41がどの象限に含まれ、かつ、手つき領域41の形状が縦長であるか横長であるかを判断する。手つき領域41が含まれる象限と、手つき領域41の形状の組み合わせとから、第1サイド〜第4サイドのうちの何れの側から入力を行っており、この入力ユーザが右利きか左利きかを判断することが可能となる。本実施形態では、第1サイドに位置するユーザに対して正方向になるように4つの象限を設定する。
図10は、入力表示装置1Cにおける表示方向制御の手順を示すフローチャートである。なお、図10におけるS21〜S26、S31〜S36の処理は、図7のフローチャートにおけるS21〜S26、S31〜S36の処理と同じであるので、説明を省略する。
S41では、制御部12は、図8、図9に示したように、ペン先領域41を中心として想定した4つの象限にうちの第4象限に手つき領域41が検出されているか否かを判断する。第4象限に手つきが発生するのは、第2サイドに位置する左利きユーザか、第1サイドに位置する右利きユーザの場合である。
そこで、第4象限にて検出されている場合はS45に進み、図7のフローチャートにおけるS27と同様に、手つき領域41の形状が縦長であるか横長であるかを判断する。手つき領域の形状が縦長(Y軸に沿って長い)となるのは、図5における、対峙する方向がY軸に平行な第1サイドあるいは第3サイドからの入力であり、手つき領域の形状が横長(X軸に沿って長い)となるのは、図5における、対峙する方向がX軸に平行な第2サイドあるいは第4サイドからの入力である。
したがって、S45において、手つき領域の形状が縦長の場合は、第1サイドに位置する右利きユーザと判断することができ、S46に進み、第1サイドからの右利きを設定する。一方、S45において、手つき領域の形状が横長の場合は、第2サイドに位置する左利きユーザと判断することができ、S47に進み、第2サイドからの左利きを設定する。
一方、S41において、手つき領域41が第4象限にて検出されていない場合は、S42に進み、第3象限に手つき領域41が検出されているか否かを判断する。第3象限に手つきが発生するのは、第1サイドに位置する左利きユーザか、第4サイドに位置する右利きユーザの場合である。
そこで、第3象限にて検出されている場合はS48に進み、手つき領域41の形状が縦長であるか横長であるかを判断し、手つき領域の形状が縦長の場合は、第1サイドに位置する左利きユーザと判断して、S49に進み、第1サイドからの左利きを設定する。一方、S48において、手つき領域の形状が横長の場合は、第4サイドに位置する右利きユーザと判断して、S50に進み、第4サイドからの右利きを設定する。
また、S42において、手つき領域41が第3象限に検出されていない場合は、S43に進み、第2象限に手つき領域41が検出されているか否かを判断する。第2象限に手つきが発生するのは、第3サイドに位置する右利きユーザか、第4サイドに位置する左利きユーザの場合である。
そこで、第2象限にて検出されている場合はS51に進み、手つき領域41の形状が縦長であるか横長であるかを判断し、手つき領域の形状が縦長の場合は、第3サイドに位置する右利きユーザと判断して、S52に進み、第3サイドからの右利きを設定する。一方、S51において、手つき領域の形状が横長の場合は、第4サイドに位置する左利きユーザと判断して、S53に進み、第4サイドからの左利きを設定する。
S43において、手つき領域41が第2象限に検出されていない場合は、手つき領域41が第1象限に検出されていることは必然であるので、S44に進み、手つき領域41の形状が縦長であるか横長であるかを判断する。そして、手つき領域の形状が縦長の場合は、第3サイドに位置する左利きユーザと判断して、S54に進み、第3サイドからの左利きを設定する。一方、S44において、手つき領域の形状が横長の場合は、第2サイドに位置する右利きユーザと判断して、S55に進み、第2サイドからの右利きを設定する。
S56では、S46、S47、S49、S50、S52、S53、S54あるいはS55において設定された入力ユーザの位置と利き手の情報とに基づいて、メニューを表示する。
例えば、第1サイドからの右利きである場合は、第1サイドから入力するユーザの右手に隠れないように、第3象限の領域に表示する。第2サイドからの左利きである場合は、第2サイドから入力するユーザの左手に隠れないように、第1象限の領域に表示する。
ところで、実施形態1〜3では、表示方向を変更した後、別のサイドから入力が行われるまで表示方向を維持する構成を例示したが、これに限られるものではない。例えば、図11に示すように、第1〜第4サイドのうちの1つを主(M)に設定して残り3つを従(S)とし、入力ペン先のアップ後の所定時間内に再入力が無い場合や、手つきが検出されなくなった場合に、表示方向を主に設定されている方向へと戻す様に制御しても良い。図11は、実施形態2,3の変形例の入力表示装置の表示方向の切り換えを示す説明図である。
〔実施形態4〕
本発明のその他の実施形態について以下説明する。なお、説明の便宜上、実施形態1〜3と同一の機能を有する部材には、同一の部材番号を付して説明を省略する。
実施形態1,2の入力表示装置1A,1Bは、第1〜第4サイドに位置する何れかのユーザが入力する場合を説明した。これに対し、第4実施形態の入力表示装置1Dは、第1〜第4サイドに位置する各ユーザが同時に入力する場合について、各ユーザより見て正方向となるようにメニュー表示するものである。
図12、図13は、実施形態4の入力表示装置における表示方向制御の手順を示すフローチャートである。S61では、制御部12は、センサ駆動部/容量値受信部3にて検出された静電容量値の変化の有無にて、静電容量センサ2へのユーザによる入力を検出したか否かを判断する。ここで、ユーザによる入力を検出した場合はS62に進み、ユーザによる入力を検出しない場合は、処理を終了する。
S62では、S61において入力が検出されたそれぞれの連続した範囲の大きさを検出する。S63では、制御部12は、S62で検出したそれぞれの連続した範囲の大きさに基づいて、ペン先領域の数をカウントする。前述したように、連続した範囲の大きさそれぞれと前記所定値Aとを比較し、連続した範囲の大きさが所定値A以下であるものをペン先領域であると判断する。
S64では、S63にてカウントした数値を変数iに設定する。S65では、変数iが0であるか否かを判断し、変数iが0である場合は、処理すべき大きさの領域が無いと判断し、処理を終了する。一方、変数iが0でない場合はS66に進む。
S66では、制御部12は、S62で検出したそれぞれの連続した範囲の大きさに基づいて、手つき領域が含まれているか否かを判断し、含む場合はS67に進み、含まない場合はS75に進む。S66では、前述したように、連続した範囲の大きさが所定値Aよりも大きいものを手つき領域であると判断する。
S67では、制御部12は、S63にて含まれると判断したペン先領域と、S66にて含まれると判断した手つき領域とが、同一ユーザのものであるか否かを判断する。具体的には、ペン先領域と手つき領域とが、同一ユーザのものと想定できる所定の範囲内に存在するか否かを判断し、存在する場合は同一ユーザのものと判断し、存在しない場合は同一ユーザのものではないと判断する。ここで、同一ユーザのものであると判断するとS68に進み、同一ユーザのものでないと判断するとS75に進む。
S68では、図7のフローチャートにおけるS27と同様に、手つき領域の形状が縦長であるか横長であるかを判断する。手つき領域の形状が縦長となるのは、前述したように、図5における第1サイドあるいは第3サイドからの入力であり、手つき領域の形状が横長となるのは、図5における第2サイドあるいは第4サイドからの入力である。S68において、手つき領域の形状が縦長の場合はS69に進み、横長の場合はS72に進む。
S69では、制御部12は、変数iの入力ユーザの位置が、第1サイドあるいは第3サイドの何れであるかを、画面10上におけるペン先領域の位置と手つき領域の位置とから判断する。判断の手法は、実施形態2の入力表示装置1Bが、図7のフローチャートのS28において、入力ユーザの位置が第1サイドと第3サイドの何れであるかを判断した手法と同じである。
S68において、変数iの入力ユーザの位置が第1サイドであると判断するとS71に進み、第3サイドであると判断するとS70に進む。S71では、変数iの入力ユーザの位置を第1サイドに設定し、S70では、変数iの入力ユーザの位置を第3サイドに設定する。
S72では、制御部12は、変数iの入力ユーザの位置が、第2サイドあるいは第4サイドの何れであるかを、画面10上におけるペン先領域の位置と手つき領域の位置とから判断する。判断の手法は、実施形態2の入力表示装置1Bが、図7のフローチャートのS37において、入力ユーザの位置が第2サイドと第4サイドの何れであるかを判断した手法と同じである。
S72において、変数iの入力ユーザの位置が第2サイドであると判断するとS74に進み、第4サイドであると判断するとS73に進む。S74では、変数iの入力ユーザの位置を第2サイドに設定し、S73では、変数iの入力ユーザの位置を第4サイドに設定する。
S70、S71、S73、あるいはS74にて、変数iの入力ユーザの位置を設定すると、S75に進む。S75では、変数iを1減算し、S65に戻る。これにより、複数の入力ユーザの位置を検出することができる。
図12に示すフローチャートの処理にて、複数の入力ユーザの位置が設定されると、図13のフローチャートの処理を、位置を設定した入力ユーザの数だけ並行して実施する。
S81では、メニュー表示の指示であるか否かを判断し、メニュー表示の指示である場合は、S82に進み、図12の処理にて設定された方向に対してメニューを表示して、処理を終了する。
一方、メニュー表示の指示でない場合はS83に進む。S83では、制御部12は、ペン先領域の中心座標を算出して、メニュー表示の位置であるか否かを判断し、メニュー表示の位置である場合はS84に進み、メニュー表示の位置でない場合はS86に進む。
S84では、画面10よりペン先がアップUPされたか否かを判断し、ペン先がアップされたことを検出するとS85に進み、ペン先がアップされた位置のメニュー項目を実行する。
S86では、入力処理としてメニューで選択されている処理を行い、S87にてペン先の位置を検出し、S88にてペン先がアップされたか否かを判断して、ペン先がアップされるまで、S86〜S88の処理を繰り返す。
これにより、複数の入力ユーザがそれぞれ異なる処理を要求した場合においても、並行してそれぞれの処理を行うため、結果として複数人のユーザ入力に対して、メニューを適切な方向に表示することができる。
〔ソフトウェアによる実現例〕
入力表示装置1A〜1Dの制御部12は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
後者の場合、入力表示装置1A〜1Dは、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、上記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、上記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が上記プログラムを上記記録媒体から読み取って実行することにより、本発明の目的が達成される。上記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔まとめ〕
本発明の態様1に係る入力表示装置(1A,1B,1C,1D)は、情報を表示する表示画面(表示部11,入力表示画面10)と、該表示画面に対する入力を検出するセンサ(静電容量センサ2)とを備え、ペン(入力ペン31)を用いた入力操作が可能な入力表示装置であって、前記センサにて検出される入力領域について、当該入力領域の大きさに基づいて、ペン先による入力領域であるかペンを持つ手による入力領域であるかを判定する第1判定部(制御部12,形状/手つき判定部4)と、前記第1判定部にてペン先領域および手つき領域の相互の位置関係に基づいて、前記表示画面における情報の表示方向を切り換える表示切換部(制御部12,ユーザ位置判断部6,表示方向判定部7)とを備えたことを特徴としている。
上記の構成によれば、第1判定部が、センサにて検出される入力領域について、その大きさに基づいて、ペン先によるペン先領域であるかペンを持つ手による手つき領域であるかを判定する。ペン先領域は、ペン先と想定できる領域であり、手つき領域より十分に小さいので、大きさから両者を区別することができる。
表示切換部は、同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域の相互の位置関係に基づいて、表示画面における情報の表示方向を切り換える。同一ユーザの入力操作による場合は、ペン先領域は手つき領域よりも必ずユーザの位置より遠い位置になるので、ペン先領域および手つき領域の相互の位置関係に基づいて、ユーザの位置を特定することができる。
これにより、情報の表示方向を指示するためだけの特別な操作をユーザが行わなくとも、ユーザの画面に対する入力操作に基づいて当該ユーザの画面に対する位置を特定して、情報をユーザに適した方向に表示することが可能になる。
本発明の態様2に係る入力表示装置は、上記態様1において、前記第1判定部にてペン先によると判定されたペン先領域および手つきによると判定された手つき領域の相互の距離に応じて、同一のユーザの入力操作によるペン先領域および手つき領域であるか否かを判定する第2判定部をさらに備え、前記表示切換部は、前記第2判定部にて同一ユーザのものであると判定されたペン先領域および手つき領域の相互の位置関係に基づいて、前記表示画面における情報の表示方向を切り換える構成であってもよい。
上記構成によれば、第2判定部は、第1判定部にて判定されたペン先領域および手つき領域が、同一のユーザの入力操作によるものであるか否かを判定する。この判定は、例えば、同時に検出されているペン先領域と手つき領域とが、同一ユーザによるものと想定できる距離関係(範囲内)にあるか否かで判定できる。
表示切換部は、同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域の相互の位置関係に基づいて、表示画面における情報の表示方向を切り換える。
これにより、同一ユーザによる入力操作によるものではない、ペン先と想定できる入力領域と手つきと想定できる入力領域とが、偶然に同時に検出された結果、表示が誤って切り換えられる不具合を排除できる。
本発明の態様3に係る入力表示装置は、上記態様2において、前記第2判定部にて同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域のうちの手つき領域の形状が縦長か横長かを判定する第3判定部を備え、前記表示切換部は、前記第2判定部にて同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域の相互の位置関係と、前記第3判定部にて判定された前記手つき領域が縦長か横長かの情報とに基づいて、前記表示画面における情報の表示方向を切り換える構成であってもよい。
手つき領域の形状が、縦長であるか横長であるかをみることで、入力操作を行うユーザの画面に対する位置が特定できる。
上記の構成によれば、第3判定部は、同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域のうちの手つき領域の形状が縦長か横長かを判定し、表示切換部は、前記第2判定部にて同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域の相互の位置関係と、第3判定部にて判定された前記手つき領域が縦長か横長かの情報とに基づいて、表示画面における情報の表示方向を切り換える。
二人のユーザが角をなす2辺よりそれぞれ入力操作を行った場合、二人のユーザの手つき領域の形状は、一人は縦長、もう一人は横長とになる。したがって、手つき領域の形状が縦長であるか横長であるかを判定することで、画面の4辺のうちの何れの側からの入力であるかを判断することが可能となる。
本発明の態様4に係る入力表示装置は、上記態様1から3において、前記センサにて検出される入力に応じて描画表示を行う描画部をさらに備え、前記描画部は、前記表示切換部が情報の表示方向の切り換えに用いたペン先領域を描画の入力としては使用しない構成であってもよい。
上記の構成によれば、切り換え後の表示に対応して入力がなされるまでの間の描画を使用しないようにできる。これは、表示切換部が、情報の表示方向を切り換える場合に、切り換え前の表示状態では切り換え後の描画位置を特定することができないためである。
本発明の態様5に係る入力表示装置は、上記態様1から4において、前記第1判定部にて判定されたペン先領域が複数ある場合は、前記第2判定部は、複数のペン先領域それぞれについて、ペン先領域および手つき領域の相互の位置関係に基づいて同一のユーザの入力操作によるものと判定できる手つき領域を特定し、前記表示切換部は、前記表示画面における複数のペン先領域それぞれに応じた表示領域の情報の表示方向を、前記第2判定部にて同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域の相互の位置関係に基づいて切り換える構成とすることもできる。
上記の構成によれば、第2判定部は、第1判定部にてペン先領域と判定されたそれぞれについて、ペン先領域および手つき領域の相互の位置関係に基づいて同一のユーザの入力操作によるものと判定できる手つき領域を特定し、表示切換部は、表示画面における複数のペン先領域それぞれに応じた表示領域の情報の表示方向を、同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域の相互の位置関係に基づいて切り換える。
これにより、画面の4辺それぞれからユーザが同時に入力操作を行っている状態でも、各ユーザの位置に応じて、情報の表示方向を切り換えることができる。
本発明の態様6に係る入力表示装置は、上記態様1から5において、前記表示切換部は、機能を選択するためのメニューの表示方向を切り換える構成であってもよい。
本発明の各態様に係る入力表示装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記入力表示装置が備える各部として動作させることにより前記入力表示装置をコンピュータにて実現させる入力表示装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
本発明は、タッチパネルなどの入力装置を備え、特に画面を水平或いは、水平に近い状態にして使用する手書き入力表示装置に利用することができる。
1A〜1D 入力表示装置
2 静電容量センサ(センサ)
3 センサ駆動部/容量値受信部
4 形状/手つき判定部(第1判定部,第2判定部,第3判定部)
5 タッチ認識処理部
6 ユーザ位置判断部(表示切換部)
7 表示方向判定部(表示切換部)
8 描画情報制御部(表示切換部、描画部)
9 表示駆動部
10 入力表示画面
11 表示部
12 制御部(第1判定部,第2判定部,第3判定部,表示切換部)
30 ツールバー
31 入力ペン(ペン)
40 ペン先領域
41 ペン先領域

Claims (4)

  1. 情報を表示する表示画面と、該表示画面に対する入力を検出するセンサとを備え、ペンを用いた入力操作が可能な入力表示装置であって、
    前記センサにて検出される入力領域について、当該入力領域の大きさに基づいて、ペン先による入力領域であるかペンを持つ手による入力領域であるかを判定する第1判定部と、
    前記第1判定部にてペン先によると判定されたペン先領域および手つきによると判定された手つき領域の相互の距離に応じて、同一のユーザの入力操作によるペン先領域および手つき領域であるか否かを判定する第2判定部をさらに備え、
    前記第2判定部にて同一ユーザのものであると判定されたペン先領域および手つき領域の相互の位置関係に基づいて、前記表示画面における情報の表示方向を切り換える表示切換部とを備えたことを特徴とする入力表示装置。
  2. 前記第2判定部にて同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域のうちの手つき領域の形状が縦長か横長かを判定する第3判定部を備え、
    前記表示切換部は、前記第2判定部にて同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域の相互の位置関係と、前記第3判定部にて判定された前記手つき領域が縦長か横長かの情報とに基づいて、前記表示画面における情報の表示方向を切り換えることを特徴とする請求項に記載の入力表示装置。
  3. 前記センサにて検出される入力に応じて描画表示を行う描画部をさらに備え、
    前記描画部は、前記表示切換部が情報の表示方向の切り換えに用いたペン先領域を描画の入力としては使用しないことを特徴とする請求項1又は2に記載の入力表示装置。
  4. 前記第1判定部にて判定されたペン先領域が複数ある場合は、
    前記第2判定部は、複数のペン先領域それぞれについて、ペン先領域および手つき領域の相互の位置関係に基づいて同一のユーザの入力操作によるものと判定できる手つき領域を特定し、
    前記表示切換部は、前記表示画面における複数のペン先領域それぞれに応じた表示領域の情報の表示方向を、前記第2判定部にて同一のユーザの入力操作によるものと判定されたペン先領域および手つき領域の相互の位置関係に基づいて切り換えることを特徴とする請求項1,2又は3に記載の入力表示装置。
JP2013002147A 2013-01-09 2013-01-09 入力表示装置 Active JP5705885B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013002147A JP5705885B2 (ja) 2013-01-09 2013-01-09 入力表示装置
US14/146,046 US9141205B2 (en) 2013-01-09 2014-01-02 Input display device, control device of input display device, and recording medium
CN201410003427.7A CN103914161B (zh) 2013-01-09 2014-01-03 输入显示装置和输入显示装置的控制装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013002147A JP5705885B2 (ja) 2013-01-09 2013-01-09 入力表示装置

Publications (2)

Publication Number Publication Date
JP2014134938A JP2014134938A (ja) 2014-07-24
JP5705885B2 true JP5705885B2 (ja) 2015-04-22

Family

ID=51039902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013002147A Active JP5705885B2 (ja) 2013-01-09 2013-01-09 入力表示装置

Country Status (3)

Country Link
US (1) US9141205B2 (ja)
JP (1) JP5705885B2 (ja)
CN (1) CN103914161B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5599741B2 (ja) * 2011-02-21 2014-10-01 シャープ株式会社 電子機器、コンテンツ表示方法、およびコンテンツ表示プログラム
CN104102404B (zh) * 2014-07-11 2017-02-22 北京智谷睿拓技术服务有限公司 相对方位确定方法及装置
US9430085B2 (en) * 2014-09-12 2016-08-30 Microsoft Technology Licensing, Llc Classification of touch input as being unintended or intended
FR3029656B1 (fr) * 2014-12-09 2017-01-13 ISKn Procede de detection continue d'un etat de contact ou de non contact entre une pointe d'un ustensile et un support d'ecriture d'epaisseur variable, et systeme associe
CN104657106B (zh) * 2015-03-23 2020-07-24 联想(北京)有限公司 一种信息处理方法和电子设备
US10216405B2 (en) * 2015-10-24 2019-02-26 Microsoft Technology Licensing, Llc Presenting control interface based on multi-input command
PL3190065T5 (pl) * 2016-01-08 2022-09-05 Reemtsma Cigarettenfabriken Gmbh Opakowanie ze wzorem kodującym informację, wykrywanym przez pojemnościowy ekran dotykowy
CN107402736A (zh) * 2017-07-21 2017-11-28 驭势(上海)汽车科技有限公司 一种信息显示方法与设备
WO2019058788A1 (ja) * 2017-09-19 2019-03-28 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN112074789B (zh) * 2018-05-15 2024-02-13 住友电气工业株式会社 管理装置、管理方法以及记录介质
JP7342485B2 (ja) * 2019-07-23 2023-09-12 株式会社リコー 制御装置、方法、プログラム、および情報処理システム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3154614B2 (ja) 1994-05-10 2001-04-09 船井テクノシステム株式会社 タッチパネル入力装置
JPH11175228A (ja) 1997-12-17 1999-07-02 Hitachi Ltd 情報端末装置
JP2000163179A (ja) 1998-11-30 2000-06-16 Canon Inc 情報処理装置及び方法並びに記憶媒体
JP2001350588A (ja) 2000-06-07 2001-12-21 Totoku Electric Co Ltd テーブル型表示装置
JP2006039686A (ja) 2004-07-22 2006-02-09 Pioneer Electronic Corp タッチパネル装置、タッチ領域検出方法およびタッチ領域検出プログラム
JP5161690B2 (ja) 2008-07-31 2013-03-13 キヤノン株式会社 情報処理装置及びその制御方法
CN102257457A (zh) * 2008-12-25 2011-11-23 富士通株式会社 计算机程序、输入装置以及输入方法
JP5322163B2 (ja) * 2009-03-19 2013-10-23 シャープ株式会社 表示装置、表示方法、および表示プログラム
JP5282661B2 (ja) * 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2011113128A (ja) * 2009-11-24 2011-06-09 Sharp Corp ペンタブレット入力装置及びそれを用いた入力方法
KR101813028B1 (ko) * 2010-12-17 2017-12-28 엘지전자 주식회사 이동 단말기 및 그 디스플레이 제어 방법
US8830192B2 (en) * 2011-01-13 2014-09-09 Elan Microelectronics Corporation Computing device for performing functions of multi-touch finger gesture and method of the same
US8593421B2 (en) * 2011-03-22 2013-11-26 Adobe Systems Incorporated Local coordinate frame user interface for multitouch-enabled devices
KR20130127146A (ko) * 2012-05-14 2013-11-22 삼성전자주식회사 다중 터치에 대응하는 기능을 처리하기 위한 방법 및 그 전자 장치
US9483146B2 (en) * 2012-10-17 2016-11-01 Perceptive Pixel, Inc. Input classification for multi-touch systems

Also Published As

Publication number Publication date
CN103914161A (zh) 2014-07-09
CN103914161B (zh) 2017-03-01
JP2014134938A (ja) 2014-07-24
US9141205B2 (en) 2015-09-22
US20140192016A1 (en) 2014-07-10

Similar Documents

Publication Publication Date Title
JP5705885B2 (ja) 入力表示装置
JP5983503B2 (ja) 情報処理装置及びプログラム
JP6132644B2 (ja) 情報処理装置、表示制御方法、コンピュータプログラム、及び記憶媒体
KR101521337B1 (ko) 재배치가능한 터치면 상의 제스처 방위의 검출
WO2010007813A1 (ja) 携帯型画像表示装置、その制御方法及び情報記憶媒体
US9335847B2 (en) Object display method and apparatus of portable electronic device
US20140146007A1 (en) Touch-sensing display device and driving method thereof
CN103718148A (zh) 屏幕显示模式确定方法及终端设备
EP3063614B1 (en) Electronic apparatus and method of recognizing a user gesture
JP2016128992A (ja) 電子機器、その制御方法及びプログラム並びに記録媒体
JP6142564B2 (ja) 情報表示装置および表示制御プログラム
US20150205483A1 (en) Object operation system, recording medium recorded with object operation control program, and object operation control method
WO2014057929A1 (ja) ユーザインタフェース装置、ユーザインタフェース方法及びプログラム
JP2014056519A (ja) 携帯端末装置、誤操作判定方法、制御プログラムおよび記録媒体
WO2013080425A1 (ja) 入力装置、情報端末、入力制御方法、および入力制御プログラム
EP2876540B1 (en) Information processing device
JP2014186401A (ja) 情報表示装置
JP6160465B2 (ja) 携帯情報端末、及びプログラム
US20170075453A1 (en) Terminal and terminal control method
JP5827695B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
JP2018139158A (ja) 携帯端末及びプログラム
JP6622837B2 (ja) 入力表示装置および入力表示方法
JP6971772B2 (ja) 入力装置及びプログラム
CN104657061B (zh) 截屏的方法及应用其的电子装置
KR102235914B1 (ko) 터치스크린이 구비된 표시장치 및 그 구동 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150225

R150 Certificate of patent or registration of utility model

Ref document number: 5705885

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150