JP2017083973A - 表示端末装置、表示制御方法および表示制御プログラム - Google Patents

表示端末装置、表示制御方法および表示制御プログラム Download PDF

Info

Publication number
JP2017083973A
JP2017083973A JP2015209393A JP2015209393A JP2017083973A JP 2017083973 A JP2017083973 A JP 2017083973A JP 2015209393 A JP2015209393 A JP 2015209393A JP 2015209393 A JP2015209393 A JP 2015209393A JP 2017083973 A JP2017083973 A JP 2017083973A
Authority
JP
Japan
Prior art keywords
touch panel
display
input device
approach
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015209393A
Other languages
English (en)
Inventor
正則 磯邉
Masanori Isobe
正則 磯邉
伸一 田代
Shinichi Tashiro
伸一 田代
慎太郎 木田
Shintaro Kida
慎太郎 木田
愛子 古家後
Aiko Koyago
愛子 古家後
剛 宇野
Takeshi Uno
剛 宇野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2015209393A priority Critical patent/JP2017083973A/ja
Priority to US15/276,939 priority patent/US20170115806A1/en
Publication of JP2017083973A publication Critical patent/JP2017083973A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means

Abstract

【課題】ユーザの利便性を向上させることを課題とする。【解決手段】タブレット端末は、タッチパネルを有する。そして、タブレット端末は、タッチパネルに対する所定の操作に応じて、表示対象の表示位置の移動又は表示対象の切り替え制御を行う。このようなタブレット端末は、入力デバイスの接近を検出する。そして、タブレット端末は、入力デバイスの接近が検出されると、タッチパネルに表示した表示対象の、所定の操作に応じた表示位置の移動又は切り替えを規制する。【選択図】図1

Description

本発明は、表示端末装置、表示制御方法および表示制御プログラムに関する。
タッチパネルを有する携帯電話やタブレット端末などの電子装置が利用されている。このような電子装置は、タッチパネル上で、タッチペンや指による画面操作を行うことができる。例えば、電子装置は、2つの操作モードを有しており、予め指定したボタンなどがクリックされると、2つの操作モードを切り替え、文字入力や画面の拡大縮小などの各種処理を実行する。
特開2007−233649号公報
しかしながら、上記技術では、操作モードを切り替える場合に、ボタン操作などの手動を毎回行うことになるので、ユーザの利便性が悪い。例えば、手による拡大縮小やタッチペンによる文字入力を頻繁に繰り返す場合は特に煩わしく、ユーザの利便性がさらに低下する。
1つの側面では、ユーザの利便性を向上させることができる表示端末装置、表示制御方法および表示制御プログラムを提供することを目的とする。
第1の案では、表示端末装置は、タッチパネルに対する所定の操作に応じて、表示対象の表示位置の移動又は表示対象の切り替え制御を行う。表示端末装置は、入力デバイスの接近を検出する検出部を有する。表示端末装置は、前記検出部により前記入力デバイスの接近が検出されると、前記タッチパネルに表示した前記表示対象の、前記所定の操作に応じた表示位置の移動又は切り替えを規制する制御部を有する。
一実施形態によれば、ユーザの利便性を向上させることができる。
図1は、実施例1にかかるタブレット端末を説明する図である。 図2は、実施例1にかかるタブレット端末の機能構成例を示す機能ブロック図である。 図3は、ペン操作を説明する図である。 図4は、指操作を説明する図である。 図5は、操作切替を説明する図である。 図6は、処理の流れを示すフローチャートである。 図7は、表示例を説明する図である。 図8は、ハードウェア構成例を説明する図である。
以下に、本願の開示する表示端末装置、表示制御方法および表示制御プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかるタブレット端末を説明する図である。タブレット端末1は、様々な方式のタッチパネル2とタッチパネル2に表示される情報を操作するタッチペン3などの入力デバイスとを有する。タッチパネル2は、例えば静電容量型、電磁誘導型、静電容量型と電磁誘導型を併用したものを採用することができる。このタブレット端末1は、指や手のひらなどの生体による第1の操作モードとタッチペンによる第2の操作モードとを実行する。第1の操作モードの一例としては、情報の拡大や縮小を実行し、第2の操作モードの一例としては、文字入力などである。
なお、タブレット端末1は、タブレット端末単体であっても、液晶分離型パソコンなどから分離されたタブレット端末であってもよい。さらに、タブレット端末1とタッチペン3とは各種ケーブルで接続されていてもよく、分離されていてもよい。また、本実施例では、タッチパネル2に国語や算数などの問題を表示させて、答えなどを受け付ける教育システムを例にして説明するが、これに限定されるものではなく、タッチパネル2を用いた他のシステムにも適用することができる。
このようなタブレット端末1は、タッチパネル2で生体を検知した場合は、第1の操作モードを選択し、タッチパネル2でタッチペン3を検知した場合は、第2の操作モードを選択する。タブレット端末1は、第1の操作モードまたは第2の操作モードを用いて、タッチパネル2に表示される情報への操作を実行する。
このように、タブレット端末1は、モード切替ボタンを押下するなどの切替操作を受け付けることなく、タッチパネル2で検知した情報にしたがって、適切なモードに自動で切り替えることができる。この結果、タブレット端末1は、ユーザの利便性を向上させることができる。
[機能構成]
図2は、実施例1にかかるタブレット端末1の機能構成例を示す機能ブロック図である。図2に示すように、タブレット端末1は、表示部11、記憶部12、制御部13を有する。
表示部11は、各種情報を表示する処理部であり、例えば図1に示したタッチパネル2に該当する。この表示部11は、国語や算数などの問題などを表示する。記憶部12は、制御部13が実行するプログラムや各種データを記憶する記憶装置であり、例えばメモリやハードディスクなどである。この記憶部12は、例えば各種閾値、判定結果、表示対象のデータなどを記憶する。
制御部13は、タブレット端末1全体の処理を司る処理部であり、例えばプロセッサなどである。この制御部13は、表示制御部14、選択部15、手操作実行部16、ペン操作実行部17を有する。なお、表示制御部14、選択部15、手操作実行部16、ペン操作実行部17は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
表示制御部14は、表示部11に情報を表示させる処理部である。例えば、表示制御部14は、記憶部12に記憶されるデータを読み出して、表示部11に表示させる。
選択部15は、表示部11に対する動作モード選択する処理部である。具体的には、選択部15は、指やタッチペン3などを検知し、検知結果に応じて、タッチパネル2に対する操作モードを選択する。そして、選択部15は、選択した操作モードに対して、処理開始を指示する。
例えば、選択部15は、タッチパネル2上で指の接触を検知した場合は、第1の操作モードを選択し、手操作実行部16に処理開始を指示する。また、選択部15は、タッチパネル2上でタッチペン3の接触を検知した場合は、第2の操作モードを選択し、ペン操作実行部17に処理開始を指示する。このように、選択部15は、タッチパネル2に接触したのが指かタッチペン3かによって、操作モードを選択する。
なお、タッチパネル2に接触したものが生体かタッチペン3かを判定する手法は様々な手法を採用することができる。例えば、選択部15は、タッチペン3でタッチパネル2を操作する時の圧力値の範囲である第1の範囲と指でタッチパネル2を操作する時の圧力値の範囲である第2の範囲を保持する。そして、選択部15は、タッチパネル2で接触を検知した時の圧力値がいずれの範囲に属するかによって、つまり筆圧にしたがって、接触したものが生体かタッチペン3かを特定する。
上記手法に限らず、他の方法で操作モードを選択することもできる。例えば、選択部15は、タッチペン3のイベントをタッチパネル2で検知した場合、第2の操作モードを選択することもできる。具体的には、選択部15は、タッチパネル2から所定距離の範囲内で、タッチペン3を検知した場合、第2の操作モードを選択する。つまり、選択部15は、タッチペン3がタッチパネル2に接触していない状態であっても、タッチパネル2で検出可能な位置にタッチペン3が接近したことが検知できた場合は、第2の操作モードを選択する。
非接触のタッチペン3を検知する手法は、既存の様々な手法や既存のドライバなどを採用することができる。例を挙げると、タブレット端末1とタッチペン3とが各種ケーブルで接続されている場合、選択部15は、非接触型通信などを用いて検知することができる。別例としては、非接触状態であっても静電容量型のタッチパネル2で検出できる素材をタッチペン2の先端に使用する手法を採用することができる。
また、選択部15は、電磁誘導型のタッチパネル2などの場合、タッチペン3から出力される電磁波をタッチパネル2が検知した時に、タッチペン3の接触もしくは接近を検知することもできる。つまり、選択部15は、タッチパネル2と非接触状態であっても、タッチペン3から出力される微小の電磁波を検出した場合は、タッチペン3の接近を検出することができる。このように、選択部15は、電磁波の有無によって、操作モードを切り替えることができる。
さらに、選択部15は、タッチパネル2から電磁波を出力し、その電磁波の反射によって、生体かタッチペン3かを判定することもできる。例えば、選択部15は、反射した電磁波の量が閾値以上であればタッチペン3と検知し、反射した電磁波の量が閾値未満であれば生体と検知する。つまり、選択部15は、タッチパネル2から出力される微小の電磁波の反射を検出し、閾値以上の反射が検出された場合にタッチペン3の接近を検出することができる。
このように、選択部15は、これらの手法を用いて閾値以上の電磁波を検知した場合に、タッチパネル2に非接触状態であるタッチペン3を検知できる。これら以外にも、選択部15は、タッチパネル2で閾値以上の静電容量値が検出された領域の大きさが閾値以上であれば、生体の接触と判定し、閾値未満であればタッチペン3の接触もしくは接近と判定することもできる。なお、ここで使用される閾値も幅を持たせることができる。
また、選択部15は、第1の操作モードより第2の操作モードを優先させることができる。例えば、選択部15は、タッチパネル2で指の接触を検知した後、タッチパネル2でタッチペン3を検知した場合、第1の操作モードを抑制して、第2の操作モードに切り替えることができる。つまり、選択部15は、指や手のひらなどの生体を先に検知した後、タッチペン3を検知した場合は、先に第1の操作モードが選択されるが、遅滞なく第2の操作モードに切り替える。
また、選択部15は、タッチパネル2に対するタッチペン3の接近や接触を検出すると、タッチパネル2に表示するスワイプ操作やピンチアウトなどを受け付けても、表示内容変更を抑制し、かつ、タッチペン3による入力を行わせる。また、選択部15は、タッチペン3の接近が検出されると、タッチパネル2に表示した表示対象の、所定の操作に応じた表示位置の移動又は切り替えを規制する。また、選択部15は、タッチペン3の接近を検出すると、タッチペン3の接近前ではタッチパネル2に表示した表示対象の表示位置を移動させるスワイプ操作などを検出しても、表示対象の表示位置は移動させないように制御する。つまり、選択部15は、タッチペン3を検出した後は、手によるスワイプ操作などを規制する。
手操作実行部16は、手や手のひらなどの生体による操作を実行する処理部である。一例を挙げると、手操作実行部16は、手によるダブルクリックやピンチアウトなどをタッチパネル2上で受け付けると、タッチパネル2に表示される情報の拡大や縮小を実行する。また、手操作実行部16は、スワイプ操作などをタッチパネル2上で受け付けると、タッチパネル2に表示される情報のページ切替などを実行する。
ペン操作実行部17は、タッチペン3を用いた各種操作を実行する処理部である。一例を挙げると、ペン操作実行部17は、タッチパネル2上でタッチペン3が操作した軌跡を取得して、タッチペン3で操作された領域に文字入力を実行する。また、ペン操作実行部17は、タッチパネル2上に表示される削除ボタンなどの選択を受け付けると、タッチペン3で指定された領域に入力された文字情報を削除する。
例えば、ペン操作実行部17は、タッチペン3の位置を検出し、検出した複数の位置に基づいて、タッチペン3の入力軌跡を特定する。そして、ペン操作実行部17は、特定した入力軌跡に応じた表示を実行する。このようにすることで、ペン操作実行部17は、ユーザがタッチペン3を用いてタッチパネル2上に「あ」と書くと、タッチパネル2に「あ」を表示し、タッチパネル2上に「A」と書くと、タッチパネル2に「A」を表示する。
[各種操作の具体例]
次に、図3−図5を用いて、操作モードの選択および各種操作の具体例を説明する。図3は、ペン操作を説明する図である。図4は、指操作を説明する図である。図5は、操作切替を説明する図である。図3から図5では、タブレット端末1のタッチパネル2上には、回答欄である指定領域4aおよび4bを有する国語の問題4が表示されている例で説明する。
図3に示すように、指定領域4aおよび4bを有する国語の問題4が表示されている状態において、選択部15は、指などの生体およびタッチペン3がタッチパネル2と非接触状態であるときに、タッチパネル2上でタッチペン3のイベントAを検知すると、ペン操作である第2の操作モードを選択する。この結果、ペン操作実行部17は、指定領域4aへの文字入力を実行する。
また、図4に示すように、指定領域4aおよび4bを有する国語の問題4が表示されている状態において、選択部15は、タッチペン3を検知することなく、ピンチアウトなどの指操作のみを受け付けると、生体による操作である第1の操作モードを選択する。この結果、手操作実行部16は、タッチパネル2に表示される問題4の拡大や縮小を実行する。
また、図5に示すように、指定領域4aおよび4bを有する国語の問題4が表示されている状態において、選択部15は、タッチペン3を持った手の手のひらをタッチパネル2上で検知すると、第1の操作モードを選択する。しかし、その後、選択部15は、タッチパネル2上でタッチペン3のイベントAを検知すると、第1の操作モードから第2の操作モードに操作モードを切り替える。このようにすることで、紙媒体への文字入力と同様の操作で、タッチパネル2へ文字を入力することができる。
[処理の流れ]
図6は、処理の流れを示すフローチャートである。図6に示すように、タブレット端末1の選択部15は、タッチパネル2の画面への接触を検知すると(S101:Yes)、生体の接触か否かを判定する(S102)。
そして、選択部15は、生体の接触である場合(S102:Yes)、さらに、タッチペン3の接触も検知したかを判定する(S103)。ここで、選択部15は、タッチペン3の接触を検知しない場合(S103:No)、指操作モードを選択する(S104)。一方、選択部15は、さらに、タッチペン3の接触を検知した場合(S103:Yes)、ペン操作モードを選択する(S105)。
また、S102において、選択部15は、生体の接触ではなく(S102:No)、タッチペン3の接触を検知した場合(S106:Yes)、ペン操作モードを選択する(S105)。一方、選択部15は、生体の接触ではなく(S102:No)、タッチペン3の接触でもない場合(S106:No)、処理を終了する。例えば、選択部15は、指操作モードでもペン操作モードでもなく、表示データの切替や表示の終了などのような予め指定された操作を実行することもできる。
[効果]
上述したように、タブレット端末1は、指操作やペン操作の延長で操作モードを切り替えることができる。したがって、ユーザは、手による拡大縮小やタッチペンによる文字入力を頻繁に繰り返す場合でも、ボタン操作を省略して、操作モードを切り替えることができる。この結果、タブレット端末1は、ユーザの利便性を向上させることができる。
また、タブレット端末1は、タッチパネル2から所定距離の範囲内で、タッチペン3を検知した場合、第2の操作モードを選択することができる。したがって、タブレット端末1は、ユーザが持っているタッチペンを素早く検知できるので、タッチペン3の接触から文字入力までの時間を短縮できる。この結果、タブレット端末1は、ユーザの利便性をさらに向上させることができる。
また、タブレット端末1は、タッチペン3の接近を検出すると、タッチペン3の接近前ではタッチパネル2に表示した表示対象の表示位置を移動させるスワイプ操作などを検出しても、表示対象の表示位置は移動させない。このように、タブレット端末1は、指操作モードを選択した後もペン操作モードを優先することができる。この結果、ユーザが意図したとおりの操作モードの選択を自動的に適切に行う事ができるため、ユーザービリティが向上し、ユーザはタブレット端末を紙媒体への文字入力と同様の操作で、タッチパネル2へ文字を入力することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[表示例]
図7は、表示例を説明する図である。図7に示すように、タブレット端末1は、ユーザ操作を受け付けることで、入力した書き順と正しい書き順とをタッチパネル2上に表示させることができる。このような文字入力に関する情報が表示されている場合、選択部15は、第2の操作モードに固定することができる。この結果、ユーザは、タッチペン3を離しても操作モードを固定することができるので、辞書による確認など別の操作を並行して行うことができる。
[操作例]
例えば、選択部15は、予め指定された領域内でタッチペン3を検知した場合は第2の操作モードを選択し、領域外でタッチペン3を検知した場合は第1の操作モードを選択することもできる。例えば、図3の場合、選択部15は、指定領域4aまたは4b内でタッチペン3を検知した場合に第2の操作モードを選択する。このようにすることで、タブレット端末1は、第2の操作モードと第1の操作モードとの切替時間を短縮することができる。
また、選択部15は、第2の操作モードを選択した場合は、タッチペン3が検知されなくなってから所定時間経過するまで、第2の操作モードを維持することもできる。この場合、ペン操作実行部17は、タッチペン3によるダブルクリックなどを検知すると、拡大や縮小などを実行することもできる。
また、選択部15は、タッチペン3の接近を検出すると、タッチパネル2に表示した表示対象の表示位置の移動を規制する、又は、タッチパネル2に表示した表示対象の表示位置の移動をメニューを用いた指示に制限する。例えば、タブレット端末1は、ペン操作モードが選択されている間は、生体による操作を抑制するが、タッチパネル2に表示される、教育システムなどのメニュー画面に対する操作は許容する。このため、タブレット端末1は、ペン操作モードが選択されている間であっても、メニューを用いた画面遷移や画面の拡大縮小を許容することができる。
このように、操作装置を検知する領域や表示している情報に応じて操作モードの固定や切替の判断を行うことによって、表示する情報やユーザの意図する操作に応じた、操作モードの切替が行えるようになる。これにより、ユーザによるタブレット端末の操作性が向上し、さらに利便性が向上する。なお、上記例では、入力デバイスの一例としてタッチペン3を用いて説明したが、これに限定されるものではなく、電磁波などを出力できる他のデバイスを採用することができる。
[システム]
また、図2に示した構成は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、任意の単位で分散または統合して構成することができる。例えば、手操作実行部16とペン操作実行部17を統合することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともできる。あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
上記実施例では、独立したタブレット端末1について説明したが、液晶分離型パソコンなどから分離されたタブレット端末であっても同様に処理することができる。この場合、本体側で上述した処理を実行してもよく、タブレット端末側で実行してもよく、分散させて処理させることもできる。
[ハードウェア]
上記タブレット端末1は、例えば、次のようなハードウェア構成を有するコンピュータにより実現することができる。図8は、ハードウェア構成例を説明する図である。図8に示すように、タブレット端末1は、通信インタフェース1a、HDD(Hard Disk Drive)1b、タッチパネル1c、メモリ1d、プロセッサ1eを有する。
通信インタフェース1aの一例としては、ネットワークインタフェースカードなどであり、他の装置との通信を制御する。HDD1bは、各種情報を記憶する記憶装置である。タッチパネル1cは、各種情報を表示し、ユーザ操作を受け付ける表示装置である。
メモリ1dの一例としては、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。また、プロセッサ1eの一例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、PLD(Programmable Logic Device)等が挙げられる。
また、タブレット端末1のプロセッサ1eは、プログラムを読み出して実行することで操作制御方法を実行する情報処理装置として動作する。つまり、プロセッサ1eは、表示制御部14、選択部15、手操作実行部16、ペン操作実行部17と同様の機能を実行するプログラムをHDD1cから読み出してメモリ1dに展開する。この結果、プロセッサ1eは、表示制御部14、選択部15、手操作実行部16、ペン操作実行部17と同様の機能を実行するプロセスを実行することができる。なお、この他の実施例でいうプログラムは、タブレット端末1によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO(Magneto−Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
1 タブレット端末
2 タッチパネル
3 タッチペン
11 表示部
12 記憶部
13 制御部
14 表示制御部
15 選択部
16 手操作実行部
17 ペン操作実行部

Claims (19)

  1. タッチパネルに対する所定の操作に応じて、表示対象の表示位置の移動又は表示対象の切り替え制御を行う表示端末装置において、
    入力デバイスの接近を検出する検出部と、
    前記検出部により前記入力デバイスの接近が検出されると、前記タッチパネルに表示した前記表示対象の、前記所定の操作に応じた表示位置の移動又は切り替えを規制する制御部と、
    を備えたことを特徴とする表示端末装置。
  2. タッチパネルと、
    入力デバイスの前記タッチパネルに対する接近を検出する検出部と、
    前記検出部による前記入力デバイスの接近を検出すると、該入力デバイスの接近前では前記タッチパネルに表示した表示対象の表示位置を移動させる前記タッチパネルに対する所定の操作を検出しても、前記表示対象の表示位置は移動させない制御部、
    を備えたことを特徴とする表示端末装置。
  3. タッチパネルに対する入力デバイスの接近を検出すると、前記タッチパネルに表示する表示対象の位置を変更する所定の操作を受け付けても、前記位置の変更を抑制し、かつ、前記タッチパネルに対する前記入力デバイスによる入力軌跡に応じた前記タッチパネル上の表示を行わせる制御部、
    を備えたことを特徴とする表示端末装置。
  4. 前記所定の操作はスワイプ操作である、ことを特徴とする請求項1乃至3の何れかに記載の表示端末装置。
  5. 前記所定の操作は、前記タッチパネル上で前記入力デバイスを握った手を動かす操作であることを特徴とする請求項1乃至3の何れかに記載の表示端末装置。
  6. タッチパネルと、
    入力デバイスの前記タッチパネルに対する接近を検出する検出部と、
    前記検出部による前記入力デバイスの接近を検出すると、前記タッチパネルに表示した表示対象の表示位置の移動を規制する、又は、前記タッチパネルに表示した表示対象の表示位置の移動をメニューを用いた指示に制限する制御部、
    を備えたことを特徴とする表示端末装置。
  7. 前記入力デバイスはタッチペンであることを特徴とする請求項1乃至6の何れかに記載の表示端末装置。
  8. タッチパネルによる入力デバイスの接近の検出に応じて、生体による表示対象を移動させる所定の操作を受け付けず、前記入力デバイスによる前記タッチパネルへの文字の入力を受け付けるモードに遷移させる制御部、
    を備えることを特徴とする表示端末装置。
  9. 前記接近は、閾値以上の静電容量値が検出された前記タッチパネル上の領域の大きさが所定値以下であること、または、前記タッチパネルが検出する前記入力デバイスから出力される電磁波が閾値以上であることを特徴とする請求項1乃至8の何れかに記載の表示端末装置。
  10. タッチパネルに対する所定の操作に応じて、表示対象の表示位置の移動又は表示対象の切り替え制御を行う表示端末装置が、
    入力デバイスの接近を検出する処理と、
    前記入力デバイスの接近が検出されると、前記タッチパネルに表示した前記表示対象の、前記所定の操作に応じた表示位置の移動又は切り替えを規制する処理と、
    を実行することを特徴とする表示制御方法。
  11. コンピュータが、
    入力デバイスのタッチパネルに対する接近を検出する処理と、
    前記入力デバイスの接近を検出すると、該入力デバイスの接近前では前記タッチパネルに表示した表示対象の表示位置を移動させる前記タッチパネルに対する所定の操作を検出しても、前記表示対象の表示位置は移動させない処理と
    を実行することを特徴とする表示制御方法。
  12. コンピュータが、
    タッチパネルに対する入力デバイスの接近を検出すると、前記タッチパネルに表示する表示対象の位置を変更する所定の操作を受け付けても、前記位置の変更を抑制し、かつ、前記タッチパネルに対する前記入力デバイスによる入力軌跡に応じた前記タッチパネル上の表示を行わせる処理、
    を実行することを特徴とする表示制御方法。
  13. コンピュータが、
    入力デバイスのタッチパネルに対する接近を検出する処理と、
    前記入力デバイスの接近を検出すると、前記タッチパネルに表示した表示対象の表示位置の移動を規制する、又は、前記タッチパネルに表示した表示対象の表示位置の移動をメニューを用いた指示に制限する処理と、
    を実行することを特徴とする表示制御方法。
  14. コンピュータが、
    タッチパネルによる入力デバイスの接近の検出に応じて、生体による表示対象を移動させる所定の操作を受け付けず、前記入力デバイスによる前記タッチパネルへの文字の入力を受け付けるモードに遷移させる処理、
    を実行することを特徴とする表示制御方法。
  15. タッチパネルに対する所定の操作に応じて、表示対象の表示位置の移動又は表示対象の切り替え制御を行う表示端末装置に、
    入力デバイスの接近を検出する処理と、
    前記入力デバイスの接近が検出されると、前記タッチパネルに表示した前記表示対象の、前記所定の操作に応じた表示位置の移動又は切り替えを規制する処理と、
    を実行させることを特徴とする表示制御プログラム。
  16. コンピュータに、
    入力デバイスのタッチパネルに対する接近を検出する処理と、
    前記入力デバイスの接近を検出すると、該入力デバイスの接近前では前記タッチパネルに表示した表示対象の表示位置を移動させる前記タッチパネルに対する所定の操作を検出しても、前記表示対象の表示位置は移動させない処理と
    を実行させることを特徴とする表示制御プログラム。
  17. コンピュータに、
    タッチパネルに対する入力デバイスの接近を検出すると、前記タッチパネルに表示する表示対象の位置を変更する所定の操作を受け付けても、前記位置の変更を抑制し、かつ、前記タッチパネルに対する前記入力デバイスによる入力軌跡に応じた前記タッチパネル上の表示を行わせる処理、
    を実行させることを特徴とする表示制御プログラム。
  18. コンピュータに、
    入力デバイスのタッチパネルに対する接近を検出する処理と、
    前記入力デバイスの接近を検出すると、前記タッチパネルに表示した表示対象の表示位置の移動を規制する、又は、前記タッチパネルに表示した表示対象の表示位置の移動をメニューを用いた指示に制限する処理と、
    を実行させることを特徴とする表示制御プログラム。
  19. コンピュータに、
    タッチパネルによる入力デバイスの接近の検出に応じて、生体による表示対象を移動させる所定の操作を受け付けず、前記入力デバイスによる前記タッチパネルへの文字の入力を受け付けるモードに遷移させる処理、
    を実行させることを特徴とする表示制御プログラム。
JP2015209393A 2015-10-23 2015-10-23 表示端末装置、表示制御方法および表示制御プログラム Pending JP2017083973A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015209393A JP2017083973A (ja) 2015-10-23 2015-10-23 表示端末装置、表示制御方法および表示制御プログラム
US15/276,939 US20170115806A1 (en) 2015-10-23 2016-09-27 Display terminal device, display control method, and computer-readable recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015209393A JP2017083973A (ja) 2015-10-23 2015-10-23 表示端末装置、表示制御方法および表示制御プログラム

Publications (1)

Publication Number Publication Date
JP2017083973A true JP2017083973A (ja) 2017-05-18

Family

ID=58558693

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015209393A Pending JP2017083973A (ja) 2015-10-23 2015-10-23 表示端末装置、表示制御方法および表示制御プログラム

Country Status (2)

Country Link
US (1) US20170115806A1 (ja)
JP (1) JP2017083973A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102604570B1 (ko) 2018-03-23 2023-11-22 삼성전자주식회사 사용자 입력 지원 방법 및 이를 지원하는 전자 장치

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10240442A (ja) * 1997-02-21 1998-09-11 Sharp Corp 情報処理装置
US5956020A (en) * 1995-07-27 1999-09-21 Microtouch Systems, Inc. Touchscreen controller with pen and/or finger inputs
JP2006146936A (ja) * 2004-11-23 2006-06-08 Microsoft Corp 偶発的なタッチセンシティブ装置の活動化の低減のための入力方法
JP2010020658A (ja) * 2008-07-14 2010-01-28 Panasonic Corp 情報端末装置およびその入力制御方法
JP2011134111A (ja) * 2009-12-24 2011-07-07 Sony Corp タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体
US20140085259A1 (en) * 2012-09-25 2014-03-27 Samsung Electronics Co., Ltd. System for providing a user interface for use by portable and other devices
US20140108979A1 (en) * 2012-10-17 2014-04-17 Perceptive Pixel, Inc. Controlling Virtual Objects
US20140267078A1 (en) * 2013-03-15 2014-09-18 Adobe Systems Incorporated Input Differentiation for Touch Computing Devices

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW528981B (en) * 2001-10-25 2003-04-21 Compal Electronics Inc Portable computer and related method for preventing input interruption by write-tracking input region
KR100522940B1 (ko) * 2003-07-25 2005-10-24 삼성전자주식회사 활성영역을 설정 가능한 터치스크린 시스템 및 그 제어방법
DE102004003572A1 (de) * 2004-01-23 2005-08-18 Bavarian Nordic A/S Monoparamunitätsinducer basierend auf attenuierten Myxomaviren des Kaninchens
US8018440B2 (en) * 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
DE202007018940U1 (de) * 2006-08-15 2009-12-10 N-Trig Ltd. Bewegungserkennung für einen Digitalisierer
US8481872B2 (en) * 2008-12-22 2013-07-09 N-Trig Ltd. Digitizer, stylus and method of synchronization therewith
US9710097B2 (en) * 2009-07-10 2017-07-18 Adobe Systems Incorporated Methods and apparatus for natural media painting using touch-and-stylus combination gestures
US9519356B2 (en) * 2010-02-04 2016-12-13 Microsoft Technology Licensing, Llc Link gestures
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
US9223471B2 (en) * 2010-12-28 2015-12-29 Microsoft Technology Licensing, Llc Touch screen control
KR101811636B1 (ko) * 2011-04-05 2017-12-27 삼성전자주식회사 디스플레이 장치 및 이의 오브젝트 표시 방법
US8421150B2 (en) * 2011-08-03 2013-04-16 Richtek Technology Corporation R.O.C. High voltage device and manufacturing method thereof
US9946408B2 (en) * 2011-10-28 2018-04-17 Atmel Corporation Communication between a master active stylus and a slave touch-sensor device
KR20130138880A (ko) * 2012-06-11 2013-12-20 삼성전자주식회사 단말기의 터치 입력 제어장치 및 방법
KR101846256B1 (ko) * 2014-05-09 2018-05-18 삼성전자주식회사 필기감을 제공하는 촉각 피드백 장치 및 방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956020A (en) * 1995-07-27 1999-09-21 Microtouch Systems, Inc. Touchscreen controller with pen and/or finger inputs
JPH10240442A (ja) * 1997-02-21 1998-09-11 Sharp Corp 情報処理装置
JP2006146936A (ja) * 2004-11-23 2006-06-08 Microsoft Corp 偶発的なタッチセンシティブ装置の活動化の低減のための入力方法
JP2010020658A (ja) * 2008-07-14 2010-01-28 Panasonic Corp 情報端末装置およびその入力制御方法
JP2011134111A (ja) * 2009-12-24 2011-07-07 Sony Corp タッチパネル装置およびタッチパネル制御方法、プログラム、並びに記録媒体
US20140085259A1 (en) * 2012-09-25 2014-03-27 Samsung Electronics Co., Ltd. System for providing a user interface for use by portable and other devices
US20140108979A1 (en) * 2012-10-17 2014-04-17 Perceptive Pixel, Inc. Controlling Virtual Objects
US20140267078A1 (en) * 2013-03-15 2014-09-18 Adobe Systems Incorporated Input Differentiation for Touch Computing Devices

Also Published As

Publication number Publication date
US20170115806A1 (en) 2017-04-27

Similar Documents

Publication Publication Date Title
US11604560B2 (en) Application association processing method and apparatus
US10983668B2 (en) Method and apparatus for component display processing
US10296204B2 (en) Touch operation processing method and terminal device
JP2007293820A (ja) 端末機及びタッチスクリーンを備えた端末機の制御方法
JP2009522669A (ja) マルチタッチ入力を備えた携帯電子装置
KR102228335B1 (ko) 그래픽 사용자 인터페이스의 일 부분을 선택하는 방법
JP5761216B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2022188545A1 (zh) 内容显示方法、装置、存储介质及电子设备
US9851802B2 (en) Method and apparatus for controlling content playback
JP2012141869A (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US20140108996A1 (en) Information processing device, and method for changing execution priority
JP5835240B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN106371715A (zh) 实现多条目切换的方法和装置
US10254940B2 (en) Modifying device content to facilitate user interaction
US10303346B2 (en) Information processing apparatus, non-transitory computer readable storage medium, and information display method
JP2017083973A (ja) 表示端末装置、表示制御方法および表示制御プログラム
JP2013200792A (ja) 端末装置、および、制御方法
WO2017016333A1 (zh) 一种屏幕调整方法及装置
CN110494834A (zh) 触摸面板装置、其显示控制方法以及程序
US20150253944A1 (en) Method and apparatus for data processing
AU2019205000B2 (en) Component display processing method and user equipment
US11966558B2 (en) Application association processing method and apparatus
KR102027548B1 (ko) 전자장치에서 화면표시 제어 방법 및 장치
JP7197007B2 (ja) タッチパネル型情報端末装置およびその情報入力処理方法
WO2015141091A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190415

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190611