JP2011081646A - Information processor, information processing method and program - Google Patents

Information processor, information processing method and program Download PDF

Info

Publication number
JP2011081646A
JP2011081646A JP2009234088A JP2009234088A JP2011081646A JP 2011081646 A JP2011081646 A JP 2011081646A JP 2009234088 A JP2009234088 A JP 2009234088A JP 2009234088 A JP2009234088 A JP 2009234088A JP 2011081646 A JP2011081646 A JP 2011081646A
Authority
JP
Japan
Prior art keywords
user
instruction
stylus pen
dominant hand
pen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009234088A
Other languages
Japanese (ja)
Inventor
Masaki Morita
雅紀 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009234088A priority Critical patent/JP2011081646A/en
Publication of JP2011081646A publication Critical patent/JP2011081646A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To decide a dominant hand of a user even without performing a plurality of operations to an information processor, and to change a state when receiving operation of the user according to the dominant hand. <P>SOLUTION: When a display terminal 1 is touched by a stylus pen 2, an inclination direction of the stylus pen 2 is detected. The display terminal 1 decides the dominant hand of the user by the detected inclination direction, and UI (User Interface) setting of the display terminal 1 is controlled according to the decided dominant hand. Thereby, the user can operate the display terminal 1 by a UI corresponding to the dominant hand without depending on the plurality of operations. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、操作子によって入力された指示に応じた処理を行う技術に関する。   The present invention relates to a technique for performing processing in accordance with an instruction input by an operator.

情報処理装置には、ユーザーによって操作されるペン型の操作子から指示が入力される
と、その指示に応じた処理を行うものがある。通常、ユーザーには利き手があり、その利
き手で操作子を持って操作を行うが、このとき、GUI(Graphical User Interface)キ
ーのような、画面上に表示される指示受付画像の配置によって操作の快適性が異なってく
る。例えば、画面右端にGUIキーが表示されていて、左利きのユーザーが左手にペンを
持ち、このGUIキーをタッチしようとした場合には、画面右端まで腕を伸ばし、画面の
大部分を腕で覆い隠した状態でタッチする状況となる。このような場合、右利きのユーザ
ーと比較して、多くの距離にわたって腕を伸ばす必要があることや、腕で画面の表示内容
が見えなくなってしまうことになり、不便である。このような状況があるのにも関わらず
、一般的には右利きのユーザーが多いことから、それを前提としてデザインされた情報処
理装置が多い。
Some information processing apparatuses perform processing according to an instruction when an instruction is input from a pen-type controller operated by a user. Normally, the user has a dominant hand, and the operator operates with the dominant hand. At this time, the operation is performed by arranging the instruction reception image displayed on the screen such as a GUI (Graphical User Interface) key. Comfort is different. For example, if a GUI key is displayed on the right edge of the screen and a left-handed user holds a pen in his left hand and tries to touch this GUI key, his arm is extended to the right edge of the screen and most of the screen is covered with the arm. Touching in a hidden state. In such a case, it is inconvenient because it is necessary to extend the arm over many distances compared to a right-handed user, and the display content on the screen cannot be seen with the arm. In spite of this situation, there are many right-handed users in general, so there are many information processing devices designed on the assumption.

例えば、特許文献1には、タッチパネルを有する券売機などの情報処理装置において、
初期画面へのユーザーによる複数回のタッチの分布状況に基づいてユーザーの利き手を判
定し、その利き手に応じた操作画面に変更して表示する技術が開示されている。
For example, in Patent Document 1, in an information processing apparatus such as a ticket machine having a touch panel,
A technique is disclosed in which a user's dominant hand is determined based on the distribution state of a plurality of touches by the user on the initial screen, and the operation screen is changed and displayed according to the dominant hand.

特開2006−331092号公報JP 2006-330992 A

上記のような特許文献1に記載の仕組みでは、初期画面において複数回のタッチが必要
となり、利き手の判定に時間を要する。また、利き手判定を行うまでの初期画面そのもの
は、利き手を考慮したものではないから、ユーザーは、自身の利き手に適したものではな
い初期画面に対して複数回のタッチを行わなければならず、ユーザーにとっての負担感が
大きい。
本発明は、情報処理装置に対する複数回のタッチ分布に依らずにユーザーの利き手を判
定し、その利き手に応じて、ユーザーの操作を受け付けるときの態様を変更することを目
的とする。
In the mechanism described in Patent Document 1 as described above, multiple touches are required on the initial screen, and it takes time to determine the dominant hand. In addition, since the initial screen itself until the dominant hand determination is not considered for the dominant hand, the user must touch the initial screen that is not suitable for the dominant hand, multiple times, There is a great burden on the user.
An object of the present invention is to determine a user's dominant hand without depending on a plurality of touch distributions on the information processing apparatus, and to change a mode when a user operation is accepted according to the dominant hand.

上記目的を達成するために本発明に係る情報処理装置は、画像が表示される表示面と、
前記表示面に重ねられ、ユーザーが操作する操作子によって当該ユーザーの指示が入力さ
れる入力面と、前記入力面に対して前記操作子が傾いている方向である傾き方向を検出す
る検出手段と、前記検出手段によって検出された傾き方向に応じて、ユーザーが前記操作
子を操作するときの利き手を判定する判定手段と、ユーザーの指示を受け付けて当該指示
に応じた処理を行う処理手段であって、前記判定手段により判定されたユーザーの利き手
に応じて、ユーザーの操作を受け付けるときの態様を変更する処理手段とを備えることを
特徴とする。
本発明によれば、情報処理装置に対する複数回のタッチ分布に依らずにユーザーの利き
手を判定し、その利き手に応じて、ユーザーの操作を受け付けるときの態様を変更するこ
とが可能となる。
In order to achieve the above object, an information processing apparatus according to the present invention includes a display surface on which an image is displayed,
An input surface that is superimposed on the display surface and receives an instruction of the user by an operator operated by the user; and a detecting unit that detects a tilt direction in which the operator is tilted with respect to the input surface. Determining means for determining a dominant hand when the user operates the operation element according to the tilt direction detected by the detecting means; and processing means for receiving a user instruction and performing processing according to the instruction. And a processing unit that changes a mode of accepting a user operation according to the user's dominant hand determined by the determination unit.
ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to determine a user's dominant hand irrespective of multiple touch distribution with respect to information processing apparatus, and to change the aspect at the time of accepting a user's operation according to the dominant hand.

本発明において、前記処理手段は、ユーザーの指示を受け付けるための画像である指示
受付画像を前記表示面に表示し、前記操作子が当該指示受付画像を指定して前記入力面に
入力した指示を受け付け、前記判定手段により判定されたユーザーの利き手に応じて、前
記表示面における前記指示受付画像の表示位置を変更する構成としてもよい。
この構成によれば、表示面におけるユーザーの操作を受け付ける指示受付画像の表示位
置が、判定されたユーザーの利き手に応じたものとなり、ユーザーが情報処理装置を操作
するときの操作性が向上する。
In the present invention, the processing means displays an instruction acceptance image, which is an image for accepting a user instruction, on the display surface, and an instruction that the operator specifies the instruction acceptance image and inputs to the input surface. The display position of the instruction reception image on the display surface may be changed according to the user's dominant hand that is received and determined by the determination unit.
According to this configuration, the display position of the instruction reception image that accepts the user's operation on the display surface corresponds to the determined user's dominant hand, and the operability when the user operates the information processing apparatus is improved.

本発明において、ユーザーの接触動作による指示を受け付ける複数の操作キーを備え、
前記処理手段は、前記判定手段により判定されたユーザーの利き手に応じて、各々の前記
操作キーが受け付ける指示の内容を変更する構成としてもよい。
この構成によれば、操作キーが受け付ける指示内容が、判定されたユーザーの利き手に
応じたものとなり、ユーザーが情報処理装置を操作するときの操作性が向上する。
In the present invention, comprising a plurality of operation keys for accepting instructions by the user's contact operation,
The processing means may be configured to change the content of an instruction received by each of the operation keys according to a user's dominant hand determined by the determination means.
According to this configuration, the instruction content received by the operation key corresponds to the determined user's dominant hand, and the operability when the user operates the information processing apparatus is improved.

本発明において、前記検出手段は、前記操作子における加速度を計測し、計測した前記
加速度に基づいて前記傾き方向を検出する構成としてもよい。
この構成によれば、ユーザーが操作する操作子における加速度によりその傾き方向を検
出し、その傾き方向からユーザーの利き手を判定し、その利き手に応じて、ユーザーの操
作を受け付けるときの態様を変更することが可能となる。
In the present invention, the detection means may be configured to measure an acceleration in the operation element and detect the tilt direction based on the measured acceleration.
According to this configuration, the tilt direction is detected based on the acceleration of the operator operated by the user, the user's dominant hand is determined from the tilt direction, and the manner in which the user's operation is accepted is changed according to the dominant hand. It becomes possible.

本発明において、前記検出手段は、前記操作子の長手方向における相異なる複数の箇所
の位置を検出し、検出した複数の位置に含まれる第1の位置と、当該第1の位置よりも前
記入力面から遠い第2の位置との位置関係に基づいて、前記操作子の傾き方向を特定する
構成としてもよい。
この構成によれば、ユーザーが操作する操作子における第1の位置及び第2の位置の関
係によりその傾き方向を検出し、その傾き方向からユーザーの利き手を判定し、その利き
手に応じて、ユーザーの操作を受け付けるときの態様を変更することが可能となる。
なお、本発明は、情報処理装置のほか、情報処理方法およびプログラムとして概念する
ことが可能である。
In the present invention, the detection means detects positions of a plurality of different positions in the longitudinal direction of the operation element, and includes a first position included in the detected plurality of positions, and the input from the first position. The tilt direction of the operation element may be specified based on the positional relationship with the second position far from the surface.
According to this configuration, the tilt direction is detected based on the relationship between the first position and the second position in the operator operated by the user, the user's dominant hand is determined from the tilt direction, and the user's dominant hand is determined according to the dominant hand. It becomes possible to change the mode when accepting the operation.
The present invention can be conceptualized as an information processing method and program in addition to an information processing apparatus.

第1の実施形態における表示システムの構成を表したブロック図である。It is a block diagram showing the structure of the display system in 1st Embodiment. 表示端末におけるタブレットの構成を表した平面図である。It is a top view showing the composition of the tablet in a display terminal. 第1の実施形態における、スタイラスペンの機能構成をあらわしたブロック図である。It is a block diagram showing the functional structure of the stylus pen in 1st Embodiment. 第1の実施形態における、表示端末の表示面と平行な方向から見たときの、スタイラスペン2と表示端末との位置関係を例示する図である。It is a figure which illustrates the positional relationship of the stylus pen 2 and a display terminal when it sees from the direction parallel to the display surface of a display terminal in 1st Embodiment. 親指指示マークがスタイラスペンの握り部分に付加された様子を表した説明図である。It is explanatory drawing showing a mode that the thumb instruction | indication mark was added to the grip part of the stylus pen. 親指指示マークに親指を合わせてユーザーがスタイラスペンを持った場合の様子を表した説明図である。It is explanatory drawing showing a mode when a user puts the thumb on the thumb instruction mark and holds the stylus pen. 第1の実施形態における、表示システムにおいて実行される処理の手順を表したフロー図である。It is a flowchart showing the procedure of the process performed in the display system in 1st Embodiment. 表示端末の外観と、電源投入時の画面表示の様子を表した説明図である。It is explanatory drawing showing the external appearance of a display terminal, and the mode of the screen display at the time of power activation. ログイン後の画面表示例を表した説明図である。It is explanatory drawing showing the example of a screen display after login. 第1の実施形態における、スタイラスペンの傾きを検出する際の、スタイラスペンにおける処理フロー図である。It is a processing flow figure in a stylus pen at the time of detecting the inclination of a stylus pen in a 1st embodiment. 第1の実施形態における、スタイラスペンの傾きを検出する際の、表示端末における処理フロー図である。It is a processing flow figure in a display terminal at the time of detecting the inclination of a stylus pen in a 1st embodiment. 第2の実施形態における、スタイラスペンの構成を表したブロック図である。It is a block diagram showing the structure of the stylus pen in 2nd Embodiment. 第2の実施形態における、スタイラスペンと表示端末との位置関係を例示する図である。It is a figure which illustrates the positional relationship of a stylus pen and a display terminal in 2nd Embodiment. 第2の実施形態におけるスタイラスペンの傾きを検出する際の処理フロー図である。It is a processing flow figure at the time of detecting the inclination of a stylus pen in a 2nd embodiment. 変形例1における、ペングリップがスタイラスペンの握り部分に付加された様子を表した説明図である。It is explanatory drawing showing a mode that the pen grip in the modification 1 was added to the grip part of the stylus pen. 変形例4における、表示端末がユーザーの利き手を判定することができなかった場合の画面表示内容を表したものである。The display content in the case where the display terminal in the modification 4 cannot determine a user's dominant hand is represented.

本発明を実施するための形態を、第1の実施形態と第2の実施形態とに分けて説明する

(1)第1の実施形態
図1は、第1の実施形態における表示システム100の構成を表したブロック図である

表示システム100は、情報処理装置としての表示端末1と、操作子としてのスタイラ
スペン2とを備えている。表示端末1は、ペンタブレット、タブレットPC(Personal C
omputer)、携帯電話機、携帯ゲーム機またはPDA(Personal Digital Assistants)の
ような、少なくとも情報表示と情報処理を行う装置である。図1では、その一例としてペ
ンタブレットの構成を例示している。この表示端末1は、CPU(Central Processing U
nit)10、ROM(Read Only Memory)11、RAM(Random Access Memory)12、
端末側通信部13、表示体制御部14、表示体140、タブレット制御部15、タブレッ
ト150、記憶部16、電源制御部17、バッテリー170及び操作部18を備える。こ
れらの各構成はバス19を介して互いに接続されている。
The form for implementing this invention is divided and demonstrated to 1st Embodiment and 2nd Embodiment.
(1) First Embodiment FIG. 1 is a block diagram illustrating a configuration of a display system 100 according to a first embodiment.
The display system 100 includes a display terminal 1 as an information processing apparatus and a stylus pen 2 as an operator. The display terminal 1 is a pen tablet, tablet PC (Personal C
omputer), a mobile phone, a portable game machine, or a PDA (Personal Digital Assistants). In FIG. 1, the structure of a pen tablet is illustrated as an example. This display terminal 1 has a CPU (Central Processing U).
nit) 10, ROM (Read Only Memory) 11, RAM (Random Access Memory) 12,
The terminal side communication part 13, the display body control part 14, the display body 140, the tablet control part 15, the tablet 150, the memory | storage part 16, the power supply control part 17, the battery 170, and the operation part 18 are provided. These components are connected to each other via a bus 19.

ROM11は、表示端末1に関する制御プログラムを記憶している。RAM12は、C
PU10のワークエリアとして機能する。CPU10は、ROM11に記憶されている制
御プログラムを読み出しRAM12にロードし実行することにより、表示端末1を制御し
、例えば通信機能、表示機能或いは情報処理機能などの各種機能を実現する。端末側通信
部13は、CPU10の制御の下で、例えばIrDA(Infrared Data Association)や
ブルートゥース(登録商標)の規格に従って、スタイラスペン2と無線通信を行う。記憶
部16は、例えばフラッシュメモリーなどの不揮発性の記憶手段であり、画像を表す画像
データなどの各種情報を記憶する。バッテリー170は、例えば電池である。電源制御部
17は、バッテリー170から供給された電力を表示端末1に供給する際の制御を司る。
操作部18は、複数の操作キーを備えており、ユーザーによって押下されると、押下され
たことを検出した信号をCPU10に供給する。
The ROM 11 stores a control program related to the display terminal 1. RAM 12 is C
It functions as a work area for PU10. The CPU 10 reads the control program stored in the ROM 11 and loads it into the RAM 12 and executes it, thereby controlling the display terminal 1 and realizing various functions such as a communication function, a display function, or an information processing function. The terminal-side communication unit 13 performs wireless communication with the stylus pen 2 under the control of the CPU 10 according to, for example, an IrDA (Infrared Data Association) or Bluetooth (registered trademark) standard. The storage unit 16 is a nonvolatile storage unit such as a flash memory, and stores various types of information such as image data representing an image. The battery 170 is, for example, a battery. The power controller 17 controls the power supplied from the battery 170 to the display terminal 1.
The operation unit 18 includes a plurality of operation keys. When the operation unit 18 is pressed by the user, the operation unit 18 supplies the CPU 10 with a signal that detects the pressing.

表示体140は、例えば液晶ディスプレイなどで構成されており、画像が表示される表
示面となる。表示体制御部14は、GUIなどの画像をCPU10からの命令に応じて表
示体140に表示させる。表示体140に表示される画像としては、例えばメニューの提
示や選択に関する画像、ユーザーの操作に応じた内容の画像、デジタルデータに応じた文
書や表、図形などの画像などがある。タブレット150は、ユーザーがスタイラスペン2
により表示端末1に対して指示を行う際の、その指示が入力される入力面である。タブレ
ット150は、表示体140の表示面の上に重なるように配置されている。このタブレッ
ト150は、表示体140によって表示されている画像を透過する。タブレット制御部1
5は、タブレット150においてスタイラスペン2が接触した位置を表す位置情報を生成
し、CPU10に供給する。
The display body 140 is configured by a liquid crystal display, for example, and serves as a display surface on which an image is displayed. The display body control unit 14 displays an image such as a GUI on the display body 140 in accordance with a command from the CPU 10. Examples of the image displayed on the display 140 include an image relating to menu presentation and selection, an image having contents according to a user operation, and an image such as a document, a table, and a figure according to digital data. The tablet 150 is operated by the user with the stylus pen 2
This is an input surface for inputting an instruction when an instruction is given to the display terminal 1. The tablet 150 is arranged so as to overlap the display surface of the display body 140. The tablet 150 transmits the image displayed by the display body 140. Tablet control unit 1
5 generates position information indicating the position where the stylus pen 2 is touched on the tablet 150 and supplies the position information to the CPU 10.

図2は、表示端末1におけるタブレット150の構成を表した平面図である。
図2に示すとおり、タブレット150には、スタイラスペン2がタブレット150に接
触した箇所の、x軸方向の位置を検出するためにx軸方向に延びる複数のx軸検出電極1
50xと、y軸方向の位置を検出するためにy軸方向に延びる複数のy軸検出電極150
yとが、互いに交差するように配置されている。ここで、x軸方向とは、ユーザーが表示
端末1を予め決められた正面側から見たときの左右方向であり、y軸方向とは、そのx軸
方向に直交する方向である。x軸検出電極150xとy軸検出電極150yが交差する箇
所には、それぞれコイルLが配置されており、それぞれタブレット150の表面に磁界を
形成している。ユーザーがスタイラスペン2をタブレット150に近づけると、電磁誘導
の作用によって、スタイラスペン2に備えられたペン先位置検出電極24(図3参照)に
電流が流れる。この電流によって、スタイラスペン2におけるペン先位置検出電極24に
磁界が発生して電磁波を出し、タブレット150側のコイルLがこれを検知する。そして
、タブレット制御部15は、タブレット150において最も強度が高い電磁波を検知した
コイルLのx軸方向の位置とy軸方向の位置を特定し、それらの座標(X,Y)をCPU
10に供給する。CPU10は、この座標(X,Y)に応じてユーザーの指示内容を解析
し、その指示に応じた各種の処理を行う。なお、座標(X,Y)の原点は、タブレット1
50の4隅のうちのいずれかであり、例えば正面から見たときの左上隅である。
FIG. 2 is a plan view showing the configuration of the tablet 150 in the display terminal 1.
As shown in FIG. 2, the tablet 150 includes a plurality of x-axis detection electrodes 1 extending in the x-axis direction in order to detect a position in the x-axis direction at a location where the stylus pen 2 contacts the tablet 150.
50x and a plurality of y-axis detection electrodes 150 extending in the y-axis direction in order to detect positions in the y-axis direction
y are arranged so as to cross each other. Here, the x-axis direction is a left-right direction when the user views the display terminal 1 from a predetermined front side, and the y-axis direction is a direction orthogonal to the x-axis direction. Coils L are respectively arranged at locations where the x-axis detection electrode 150x and the y-axis detection electrode 150y intersect, and a magnetic field is formed on the surface of the tablet 150, respectively. When the user brings the stylus pen 2 close to the tablet 150, an electric current flows through the pen tip position detection electrode 24 (see FIG. 3) provided in the stylus pen 2 by the action of electromagnetic induction. This current generates a magnetic field at the pen tip position detection electrode 24 in the stylus pen 2 to emit an electromagnetic wave, which is detected by the coil L on the tablet 150 side. And the tablet control part 15 specifies the position of the x-axis direction of the coil L which detected the electromagnetic wave with the highest intensity | strength in the tablet 150, and the position of a y-axis direction, and those coordinates (X, Y) are CPU.
10 is supplied. The CPU 10 analyzes the contents of the user's instruction according to the coordinates (X, Y) and performs various processes according to the instruction. The origin of coordinates (X, Y) is the tablet 1
One of 50 corners, for example, the upper left corner when viewed from the front.

図3は、スタイラスペン2の構成を表したブロック図である。
スタイラスペン2は、タブレット150を介して表示端末1に対して指示を行うための
手段であり、ユーザーが手に持ちやすいように、ペンや鉛筆を模した棒状の形をしている
。表示端末1は、ユーザーがこのスタイラスペン2を手に持ったときの、スタイラスペン
2の表示面に対する傾き方向を検出して、ユーザーの利き手を判定する。スタイラスペン
2は、CPU20、ROM21、RAM22、ペン側通信部23、ペン先位置検出電極2
4、加速度センサー25、ペン先スイッチ26、電源制御部27、及びバッテリー270
を備える。これらの各構成はバス28を介して互いに接続されている。ROM21は、ス
タイラスペン2に関する制御プログラムを記憶している。RAM22は、CPU20のワ
ークエリアとして機能する。CPU20は、ROM21に記憶されている制御プログラム
を読み出してRAM22にロードして実行することにより、スタイラスペン2の各構成を
制御する。ペン側通信部23は、CPU20の制御の下で、IrDA(Infrared Data As
sociation)やブルートゥース(登録商標)の規格に従って、表示端末1に備えられた端
末側通信部13と無線通信を行う。
FIG. 3 is a block diagram showing the configuration of the stylus pen 2.
The stylus pen 2 is a means for giving instructions to the display terminal 1 via the tablet 150, and has a rod-like shape imitating a pen or pencil so that the user can easily hold it. The display terminal 1 determines the dominant hand of the user by detecting the tilt direction of the stylus pen 2 with respect to the display surface when the user holds the stylus pen 2 in his hand. The stylus pen 2 includes a CPU 20, a ROM 21, a RAM 22, a pen side communication unit 23, and a pen tip position detection electrode 2.
4, acceleration sensor 25, nib switch 26, power supply control unit 27, and battery 270
Is provided. These components are connected to each other via a bus 28. The ROM 21 stores a control program related to the stylus pen 2. The RAM 22 functions as a work area for the CPU 20. The CPU 20 controls each component of the stylus pen 2 by reading a control program stored in the ROM 21, loading it into the RAM 22 and executing it. The pen-side communication unit 23 is controlled by the CPU 20 under the IrDA (Infrared Data As
sociation) and Bluetooth (registered trademark) standards, wireless communication is performed with the terminal-side communication unit 13 provided in the display terminal 1.

ペン先位置検出電極24は、スタイラスペン2のペン先の近傍に内蔵されたコイルであ
る。このペン先位置検出電極24は、前述したように、タブレット150にスタイラスペ
ン2が触れた際、電磁誘導によりタブレット150に電磁波を送出して、ペン先の位置を
知らせるものである。CPU10は、このペン先の位置を検出して、ユーザーの指示の内
容を解析し、その指示に応じた処理を行う。加速度センサー25は、CPU10がタブレ
ット150に対してスタイラスペン2が傾いている方向である傾き方向を検出することを
支援する。ここで、スタイラスペン2が傾いている方向とは、スタイラスペン2の長手方
向(つまりペン軸方向)がタブレット150に対して傾いている方向のことである。ユー
ザーがスタイラスペン2を持ちタブレット150に対して指示を行った際に、加速度セン
サー25は、スタイラスペン2に加わった加速度の方向を検出する。加速度センサー25
による検出値は、ペン側通信部23によって表示端末1に送信される。
The nib position detection electrode 24 is a coil built in the vicinity of the nib of the stylus pen 2. As described above, when the stylus pen 2 touches the tablet 150, the pen tip position detection electrode 24 sends electromagnetic waves to the tablet 150 by electromagnetic induction to notify the position of the pen tip. The CPU 10 detects the position of the pen tip, analyzes the content of the user's instruction, and performs processing according to the instruction. The acceleration sensor 25 assists the CPU 10 in detecting a tilt direction that is a direction in which the stylus pen 2 is tilted with respect to the tablet 150. Here, the direction in which the stylus pen 2 is tilted is a direction in which the longitudinal direction of the stylus pen 2 (that is, the pen axis direction) is tilted with respect to the tablet 150. When the user holds the stylus pen 2 and gives an instruction to the tablet 150, the acceleration sensor 25 detects the direction of acceleration applied to the stylus pen 2. Accelerometer 25
The detected value is transmitted to the display terminal 1 by the pen side communication unit 23.

スタイラスペン2の先頭部分には、その先頭方向へ向かって、図示しない弾性体等によ
り付勢力を与えられたペン先が設けられている。ペン先スイッチ26は、このペン先に連
動した感圧装置である。このペン先スイッチ26は、対象物と接触して力を受けてペンの
内部側へ押されると、その押された力を検知してオン信号を出力する。つまり、ユーザー
がスタイラスペン2を持ち、そのペン先をタブレット150に触れさせると、ペン先スイ
ッチ26はオン信号を出力し、スタイラスペン2に電源が入る。バッテリー270は例え
ば電池である。電源制御部27は、バッテリー270から供給された電力をスタイラスペ
ン2に供給する際の制御を司る。
A tip of the stylus pen 2 is provided with a pen tip that is applied with an urging force by an elastic body (not shown) toward the head. The nib switch 26 is a pressure-sensitive device linked to the nib. When the pen tip switch 26 is in contact with an object and receives a force and is pushed toward the inside of the pen, the pen tip switch 26 detects the pushed force and outputs an ON signal. That is, when the user holds the stylus pen 2 and touches the tablet 150 with the pen tip, the pen tip switch 26 outputs an ON signal, and the stylus pen 2 is turned on. The battery 270 is a battery, for example. The power supply control unit 27 controls the power supplied from the battery 270 to the stylus pen 2.

図4は、表示端末1の表示面と平行な方向から見たときの、スタイラスペン2と表示端
末1との位置関係を例示する図である。この図を参照して、スタイラスペン2の傾き方向
とユーザーの利き手との関係について説明する。
加速度センサー25は、それぞれ異なる方向の加速度を計測する2つのセンサーを有し
ている。以下、各センサーをセンサーSx、Syと呼ぶ。図4に示すように、ペン軸方向
から見た場合に、或る方向をx軸方向、そのx軸方向に直交する方向をy軸方向と規定し
、加速度センサーSxはx軸方向の加速度を計測し、加速度センサーSyはy軸方向の加
速度を計測する。なお、このx軸方向は、タブレット150におけるx軸方向と概ね一致
し、y軸方向は、タブレット150におけるy軸方向と概ね一致するような工夫がなされ
ているが、これについては後述する。図4においては、ユーザーがペンクリップ30の位
置を常に手前側にした状態で、スタイラスペン2を持つ場合を想定している。また、表示
端末1の入力面であるタブレット150が水平となる場所に表示端末1は置かれているも
のとする。
FIG. 4 is a diagram illustrating the positional relationship between the stylus pen 2 and the display terminal 1 when viewed from a direction parallel to the display surface of the display terminal 1. The relationship between the tilt direction of the stylus pen 2 and the user's dominant hand will be described with reference to FIG.
The acceleration sensor 25 has two sensors that measure acceleration in different directions. Hereinafter, the sensors are referred to as sensors Sx and Sy. As shown in FIG. 4, when viewed from the pen axis direction, a certain direction is defined as an x-axis direction, and a direction orthogonal to the x-axis direction is defined as a y-axis direction. The acceleration sensor Sx measures acceleration in the x-axis direction. The acceleration sensor Sy measures acceleration in the y-axis direction. The x-axis direction is generally matched with the x-axis direction of the tablet 150, and the y-axis direction is roughly matched with the y-axis direction of the tablet 150. This will be described later. In FIG. 4, it is assumed that the user holds the stylus pen 2 in a state where the position of the pen clip 30 is always on the near side. Further, it is assumed that the display terminal 1 is placed in a place where the tablet 150 which is the input surface of the display terminal 1 is horizontal.

各センサーSx、Syは、各々のサンプリング時刻において、図4に示したx軸、y軸
についての正の向きおよび負の向きの加速度を計測し、その検出値(ax、ay)を出力
する。axは、x軸方向の加速度であり、ayは、y軸方向の加速度である。図4におい
て、スタイラスペン2の軸方向が、(a)の状態のように、タブレット150に対して垂
直である場合には、加速度センサー25の検出値は、ax=0、ay=0となる。これに
対し、ユーザーが右手でスタイラスペン2を持ってタブレット150にタッチしようとし
た場合、スタイラスペン2の軸方向は、(b)の状態のように、タブレット150に対し
て、x軸の正方向へ傾いた状態となる。このとき、スタイラスペン2はユーザの操作に応
じて(a)の状態から(b)の状態へと遷移するように動くので、加速度センサー25の
検出値axとして、正の値である「+xR」が検出される。一方、ユーザーが左手でスタ
イラスペン2を持った場合には、スタイラスペン2の軸方向はタブレット150に対して
x軸の負方向へ傾いた状態となり、加速度センサー25の検出値axとして、負の値であ
る「−xL」が検出される。
Each sensor Sx, Sy measures the acceleration in the positive direction and the negative direction about the x-axis and y-axis shown in FIG. 4 at each sampling time, and outputs the detected value (ax, ay). ax is the acceleration in the x-axis direction, and ay is the acceleration in the y-axis direction. In FIG. 4, when the axial direction of the stylus pen 2 is perpendicular to the tablet 150 as in the state (a), the detection values of the acceleration sensor 25 are ax = 0 and ay = 0. . On the other hand, when the user tries to touch the tablet 150 with the stylus pen 2 with the right hand, the axial direction of the stylus pen 2 is the positive axis of the x axis with respect to the tablet 150 as in the state (b). It is in a state tilted in the direction. At this time, since the stylus pen 2 moves so as to transition from the state (a) to the state (b) according to the user's operation, the detected value ax of the acceleration sensor 25 is a positive value “+ xR”. Is detected. On the other hand, when the user holds the stylus pen 2 with the left hand, the axial direction of the stylus pen 2 is inclined to the negative direction of the x axis with respect to the tablet 150, and the detection value ax of the acceleration sensor 25 is negative. The value “−xL” is detected.

前述したように、加速度センサー25の検出値は、ペン側通信部23を通じて表示端末
1に送信される。表示端末1は、端末側通信部13によって加速度センサー25の検出値
を受信する。表示端末1におけるCPU10は、検出値axが正の閾値を超える場合には
、スタイラスペン2の傾き方向が右側であると検出し、ユーザーを右利きと判定する。一
方、CPU10は、検出値axが負の閾値を超える場合にはスタイラスペン2の傾き方向
が左側であると検出し、ユーザーを左利きと判定する。この閾値を適切に設定すれば、ユ
ーザの手の動きに連動したスタイラスペン2の微妙な揺れによる加速度の影響を除外し、
利き手の判定に寄与する加速度をうまく抽出することが可能である。このように、表示端
末1は、スタイラスペン2における加速度センサー25による検出値が、正負のそれぞれ
の閾値を超えるか否かに基づいて、スタイラスペン2の傾き方向を検出し、さらにユーザ
ーの利き手を判定する。つまり、CPU10は、タブレット150に対してスタイラスペ
ン2が傾いている方向である傾き方向を検出する検出手段として機能するとともに、スタ
イラスペン2の傾き方向に応じて、ユーザーがスタイラスペン2を操作するときの利き手
を判定する判定手段として機能する。
As described above, the detection value of the acceleration sensor 25 is transmitted to the display terminal 1 through the pen side communication unit 23. The display terminal 1 receives the detection value of the acceleration sensor 25 by the terminal side communication unit 13. When the detected value ax exceeds the positive threshold value, the CPU 10 in the display terminal 1 detects that the tilt direction of the stylus pen 2 is on the right side, and determines that the user is right-handed. On the other hand, when the detected value ax exceeds the negative threshold, the CPU 10 detects that the tilt direction of the stylus pen 2 is the left side, and determines that the user is left-handed. If this threshold is set appropriately, the influence of acceleration caused by subtle shaking of the stylus pen 2 linked to the movement of the user's hand is excluded,
It is possible to successfully extract the acceleration that contributes to the determination of the dominant hand. As described above, the display terminal 1 detects the tilt direction of the stylus pen 2 based on whether or not the value detected by the acceleration sensor 25 in the stylus pen 2 exceeds the positive and negative thresholds, and further controls the user's dominant hand. judge. That is, the CPU 10 functions as a detection unit that detects a tilt direction in which the stylus pen 2 is tilted with respect to the tablet 150, and the user operates the stylus pen 2 according to the tilt direction of the stylus pen 2. It functions as a determination means for determining the dominant hand of time.

ただし、この方法で利き手を判定するためには、加速度センサー25について規定され
たx軸方向及びy軸方向が、タブレット150におけるx軸方向及びy軸方向と概ね一致
していなければならない。図4では、ユーザーがペンクリップ30の位置を常に手前側に
した状態で、スタイラスペン2を持つ場合を想定していた。しかし実際には、ユーザーが
、ペンクリップ30の位置を常に手前側にした状態で、スタイラスペン2を持つとは限ら
ず、例えば、ペンクリップ30の位置をユーザーから見て奥側にした状態でスタイラスペ
ン2を持つ場合もある。このとき、スタイラスペン2におけるx軸、y軸と、加速度セン
サー25において規定されたx軸、y軸の正負方向が逆になり、左右の利き手が逆に判定
されてしまう。そのため、スタイラスペン2の握りを誘導する工夫を設ける。
However, in order to determine the dominant hand by this method, the x-axis direction and the y-axis direction defined for the acceleration sensor 25 must substantially coincide with the x-axis direction and the y-axis direction of the tablet 150. In FIG. 4, it is assumed that the user holds the stylus pen 2 in a state where the position of the pen clip 30 is always on the near side. However, in practice, the user does not always hold the stylus pen 2 with the pen clip 30 positioned at the front side, for example, with the pen clip 30 positioned at the back as viewed from the user. There may be a stylus pen 2. At this time, the positive and negative directions of the x-axis and y-axis in the stylus pen 2 and the x-axis and y-axis defined in the acceleration sensor 25 are reversed, and the right and left dominant hand is determined to be reversed. Therefore, a device for guiding the grip of the stylus pen 2 is provided.

図5は、スタイラスペン2の握りを誘導する工夫の一例として、親指位置を決めるため
の親指指示マーク31が、スタイラスペン2の握り部分に付加された様子を表した説明図
である。また、図6は、親指指示マーク31に親指を合わせて、ユーザーがスタイラスペ
ン2を持った場合の様子を表した説明図であり、図6(a)は左手でスタイラスペン2を
持った場合であり、図6(b)は右手でスタイラスペン2を持った場合を表している。こ
のように、ユーザーは、この親指指示マーク31に親指をのせるようにしてスタイラスペ
ン2を持つ。このようにすると、ユーザーから見たときのスタイラスペン2におけるペン
クリップ30の向きがユーザーから見て手前側に固定され、スタイラスペン2の向きも固
定される。これにより、加速度センサー25におけるx軸方向及びy軸方向が、タブレッ
ト150におけるx軸方向及びy軸方向と、概ね一致することとなり、利き手の判定を誤
ることがない。
FIG. 5 is an explanatory diagram showing a state in which a thumb instruction mark 31 for determining the thumb position is added to the grip portion of the stylus pen 2 as an example of a device for guiding the grip of the stylus pen 2. FIG. 6 is an explanatory diagram showing a situation where the user holds the stylus pen 2 with the thumb placed on the thumb instruction mark 31, and FIG. 6A shows the case where the stylus pen 2 is held with the left hand. FIG. 6B shows a case where the stylus pen 2 is held with the right hand. Thus, the user holds the stylus pen 2 so that the thumb is placed on the thumb instruction mark 31. In this way, the orientation of the pen clip 30 in the stylus pen 2 when viewed from the user is fixed to the front side as viewed from the user, and the orientation of the stylus pen 2 is also fixed. Thereby, the x-axis direction and the y-axis direction in the acceleration sensor 25 substantially coincide with the x-axis direction and the y-axis direction in the tablet 150, and the dominant hand is not erroneously determined.

次に、スタイラスペン2によって表示端末1がタッチされた際の動作について説明する

図7は、表示システム100において実行される処理の手順を表したフロー図である。
表示端末1に電源が投入されると、表示端末1のCPU10は、表示体140にログイ
ン画面を表示させる(ステップS1)。
Next, an operation when the display terminal 1 is touched with the stylus pen 2 will be described.
FIG. 7 is a flowchart showing a procedure of processing executed in the display system 100.
When the display terminal 1 is powered on, the CPU 10 of the display terminal 1 displays a login screen on the display body 140 (step S1).

ここで、図8は、表示端末1の外観と、電源投入時の画面表示の例を表した図である。
表示端末1には、ユーザーの利き手によって使い分けられるように、左右で同じ機能が
割り当てられた操作キーが、左右にそれぞれ1つずつ配置されている。より具体的には、
表示端末1の左側に左側操作キー40が配置され、表示端末1の右側に右側操作キー41
が配置されている。これらの操作キーは、前述した操作部18を構成するものである。表
示端末1に電源が投入されると、表示端末1の画面上に、ログインユーザーを選択する指
示を受け付けるための画像である指示受付画像G1,G2(以下、GUI部品G1,G2
という)が表示される。
Here, FIG. 8 is a diagram illustrating an appearance of the display terminal 1 and an example of a screen display when the power is turned on.
In the display terminal 1, operation keys to which the same function is assigned on the left and right are arranged one by one on the left and the right so that they can be used properly by the user's dominant hand. More specifically,
A left operation key 40 is disposed on the left side of the display terminal 1, and a right operation key 41 is disposed on the right side of the display terminal 1.
Is arranged. These operation keys constitute the operation unit 18 described above. When the display terminal 1 is turned on, on the screen of the display terminal 1, instruction reception images G1 and G2 (hereinafter, GUI parts G1 and G2) which are images for receiving an instruction to select a login user.
Is displayed.

図7の説明に戻り、CPU10は、スタイラスペン2によりタブレット150がタッチ
されるのを待つ(ステップS2)。ステップS2においてCPU10が待っているタッチ
の内容は、ユーザーが利き手に持ったスタイラスペン2で、選択したログインユーザーの
GUI部品G1、G2のいずれかをタッチすることである。例えば、ユーザーは、利き手
に持ったスタイラスペン2で、図8に示したGUI部品G1かをタッチしたとする。この
GUI部品G1にスタイラスペン2がタッチされた際に、スタイラスペン2は、加速度セ
ンサー25により加速度を計測する。その検出値は表示端末1に送信され、表示端末1に
おけるCPU10は、その検出値からスタイラスペン2の傾き方向を検出する(ステップ
S3)。ステップS3におけるスタイラスペン2の傾き方向を検出するための処理フロー
については後で詳述する。
Returning to the description of FIG. 7, the CPU 10 waits for the tablet 150 to be touched by the stylus pen 2 (step S2). The content of the touch that the CPU 10 waits in step S2 is to touch one of the GUI components G1 and G2 of the selected login user with the stylus pen 2 held by the user. For example, it is assumed that the user touches the GUI part G1 shown in FIG. 8 with the stylus pen 2 held in the dominant hand. When the stylus pen 2 is touched on the GUI part G1, the stylus pen 2 measures acceleration by the acceleration sensor 25. The detected value is transmitted to the display terminal 1, and the CPU 10 in the display terminal 1 detects the tilt direction of the stylus pen 2 from the detected value (step S3). The process flow for detecting the tilt direction of the stylus pen 2 in step S3 will be described in detail later.

表示端末1のCPU10は、検出されたスタイラスペン2の傾き方向により、ユーザー
の利き手を判定する(ステップS4)。CPU10は、ROM11に格納されたプログラ
ムに従って、検出されたスタイラスペン2の傾き方向によりユーザーの利き手を判定する
判定手段として機能する。ステップS4で、ユーザーの利き手が左右どちらに判定された
かによって、ログイン以降におけるUI(User Interface)の制御が行われる。ここで、
UIとは、ユーザーによる操作を受け付ける手段であり、画面に表示されるGUI部品と
、表示端末1が具備する操作キー40,41との双方を指している。そして、UIの制御
とは、GUI部品の配置および操作キー40,41が、ユーザーの利き手に応じた態様に
変更されることを意味する。より具体的には、CPU10は、ユーザーの利き手が右利き
であると判定した場合、UIを右利き用に設定し(ステップS5)。また、ユーザーの利
き手が左利きであると判定した場合、UIを左利き用に設定する(ステップS6)。そし
て、CPU10は、設定されたUIで画面表示および操作キーの制御を行う(ステップS
7)。以降、CPU10は、このUIにてユーザーの指示を受け付け、その指示に応じた
処理、例えば、各種画像の表示や編集、或いは画像の切換などを行う。
The CPU 10 of the display terminal 1 determines the user's dominant hand based on the detected tilt direction of the stylus pen 2 (step S4). The CPU 10 functions as a determination unit that determines the user's dominant hand based on the detected tilt direction of the stylus pen 2 in accordance with a program stored in the ROM 11. In step S4, UI (User Interface) control after login is performed depending on whether the user's dominant hand is determined to be left or right. here,
The UI is means for accepting an operation by a user, and indicates both a GUI component displayed on the screen and the operation keys 40 and 41 provided in the display terminal 1. The UI control means that the arrangement of the GUI parts and the operation keys 40 and 41 are changed to a mode according to the user's dominant hand. More specifically, when determining that the user's dominant hand is right-handed, the CPU 10 sets the UI to be right-handed (step S5). If it is determined that the user's dominant hand is left-handed, the UI is set to be left-handed (step S6). Then, the CPU 10 performs screen display and operation key control using the set UI (step S).
7). Thereafter, the CPU 10 receives an instruction from the user through this UI, and performs processing corresponding to the instruction, for example, display and editing of various images, or switching of images.

ここで、図9は、ログイン後の画面表示例を表した図であり、図9(a)は、ユーザー
が右利きと判定された場合の画面表示例を表し、図9(b)は、ユーザーが左利きと判定
された場合の画面表示例を表している。
図9(a)に示すように、ユーザーが右利きと判定された場合、GUI部品であるスク
ロールバー45は、ユーザーから見て利き手と同じ側、すなわちスタイラスペン2を持つ
手の側である右側に配置される。また、表示端末1に備えられた右側操作キー41が無効
化され、ユーザーがこの右側操作キー41を押下しても、CPU10は右側操作キー41
からの信号を無視し、この押下操作に応答する処理を行わない。ユーザーが右利きである
ということは、ユーザーの右手にはスタイラスペン2が握られており、この右手に近い右
側操作キー41を操作する可能性は小さく、空いている左手により左側操作キー40を操
作する可能性が高いからである。一方、ユーザーが左利きと判定された場合には、GUI
キーの配置および操作キーの制御は、右利きの場合とは逆になる。具体的には図9(b)
に示すように、GUI部品であるスクロールバー45は、ユーザーから見て利き手と同じ
側、すなわちスタイラスペン2を持つ手の側である左側に配置される。また、表示端末1
に備えられた左側操作キー40が無効化される。
Here, FIG. 9 is a diagram showing a screen display example after login, FIG. 9A shows a screen display example when the user is determined to be right-handed, and FIG. The example of a screen display when a user is determined to be left-handed is shown.
As shown in FIG. 9A, when the user is determined to be right-handed, the scroll bar 45, which is a GUI component, is the same side as the dominant hand as viewed from the user, that is, the right side that is the hand holding the stylus pen 2. Placed in. Further, even if the right operation key 41 provided in the display terminal 1 is invalidated and the user presses the right operation key 41, the CPU 10 does not operate the right operation key 41.
Ignore the signal from, and do not perform processing to respond to this pressing operation. If the user is right-handed, the user's right hand holds the stylus pen 2, and the possibility of operating the right operation key 41 close to the right hand is small. This is because the possibility of operation is high. On the other hand, if the user is determined to be left-handed, the GUI
Key arrangement and operation key control are the opposite of right-handed. Specifically, FIG. 9 (b)
As shown in FIG. 4, the scroll bar 45 that is a GUI component is arranged on the same side as the dominant hand as viewed from the user, that is, on the left side that is the hand side with the stylus pen 2. Display terminal 1
The left operation key 40 provided in is invalidated.

このように、CPU10は、ユーザーの指示を受け付けるための指示受付画像であるG
UI部品の表示に関して、GUI部品を表示体140に表示し、スタイラスペン2がその
GUI部品を指定してタブレット150に入力した指示を受け付けるが、このとき、判定
されたユーザーの利き手に応じて、GUI部品の表示位置を変更する。また、CPU10
は、ユーザーの接触動作による指示を受け付ける複数の操作キー40,41の制御に関し
て、判定されたユーザーの利き手に応じて、各々の操作キーが受け付けるべき指示の内容
を変更する。即ち、CPU10は、ユーザーの指示を受け付けて当該指示に応じた処理を
行う処理手段であって、ユーザーの利き手に応じて、ユーザーの操作を受け付けるときの
態様を変更する処理手段として機能する。
As described above, the CPU 10 is an instruction receiving image for receiving a user instruction.
Regarding the display of the UI parts, the GUI parts are displayed on the display body 140, and the instruction that the stylus pen 2 designates the GUI parts and inputs to the tablet 150 is accepted. At this time, depending on the determined user's dominant hand, Change the display position of the GUI component. CPU 10
With respect to the control of the plurality of operation keys 40 and 41 that accept instructions by the user's contact operation, the contents of the instructions that each operation key should accept are changed according to the determined user's dominant hand. That is, the CPU 10 is a processing unit that receives a user instruction and performs a process according to the instruction, and functions as a processing unit that changes a mode when a user operation is received according to a user's dominant hand.

次に、図7で説明したスタイラスペンの傾き方向検出(ステップS3)の詳細について
、図10および図11を用いて説明する。
図10は、スタイラスペン2の傾きを検出する際の、スタイラスペン2における処理を
表すフロー図である。
ユーザーがスタイラスペン2によりタブレット150に接触した際に、スタイラスペン
2におけるペン先スイッチ26によりスタイラスペン2の電源がONの状態になる(ステ
ップS10)。次に、加速度センサー25は、加速度を検出する(ステップS11)。そ
の検出値は、ペン側通信部23より表示端末1に送信される(ステップS12)。
Next, details of the stylus pen tilt direction detection (step S3) described with reference to FIG. 7 will be described with reference to FIGS.
FIG. 10 is a flowchart showing processing in the stylus pen 2 when detecting the tilt of the stylus pen 2.
When the user contacts the tablet 150 with the stylus pen 2, the stylus pen 2 is turned on by the pen tip switch 26 of the stylus pen 2 (step S10). Next, the acceleration sensor 25 detects acceleration (step S11). The detected value is transmitted from the pen side communication unit 23 to the display terminal 1 (step S12).

図11は、スタイラスペン2の傾きを検出する際の、表示端末1における処理を表すフ
ロー図である。
表示端末1のCPU10は、スタイラスペン2のペン側通信部23より送信された上記
検出値を端末側通信部13により受信する(ステップS15)。次に、CPU10は、受
信した検出値に含まれているaxが正か負かを判断する(ステップS16)。例えばax
が正の値である場合、CPU10は、スタイラスペン2の傾き方向を右方向と判定し(ス
テップS17)、axが負の値である場合、CPU10は、スタイラスペン2の傾き方向
を左方向と判定する(ステップS18)。
FIG. 11 is a flowchart showing processing in the display terminal 1 when detecting the tilt of the stylus pen 2.
CPU10 of the display terminal 1 receives the said detected value transmitted from the pen side communication part 23 of the stylus pen 2 by the terminal side communication part 13 (step S15). Next, the CPU 10 determines whether ax included in the received detection value is positive or negative (step S16). For example, ax
Is positive, the CPU 10 determines that the tilt direction of the stylus pen 2 is the right direction (step S17). If ax is a negative value, the CPU 10 sets the tilt direction of the stylus pen 2 to the left direction. Determination is made (step S18).

このように、第1実施形態によれば、ユーザーが表示端末1の操作を開始する最初のペ
ンタッチでスタイラスペン2の傾き方向が検出され、検出されたスタイラスペン2の傾き
方向によりユーザーの利き手が判定される。そして、判定されたユーザーの利き手に応じ
て、表示端末1のUIが制御される。こうした一連の制御により、ユーザーは自らの利き
手に応じたUI設定で表示端末1を操作することが可能となる。また、この第1実施形態
によれば、ユーザーが自らの利き手に応じたUI設定で表示端末1を操作するために要す
るペンタッチは最低1回でよいため、利き手に応じないUI設定で表示端末1を操作する
回数を削減することができる。このように、第1実施形態によれば、ユーザーが利き手に
応じないUIで表示端末1を操作するときにそのユーザーの手によって画面が隠れてしま
うという不便さもなく、ユーザーが表示端末1を操作する際の利便性および操作性が増す
という効果を奏することができる。
As described above, according to the first embodiment, the tilt direction of the stylus pen 2 is detected by the first pen touch when the user starts the operation of the display terminal 1, and the dominant hand of the user is determined by the detected tilt direction of the stylus pen 2. Determined. Then, the UI of the display terminal 1 is controlled according to the determined user's dominant hand. With such a series of controls, the user can operate the display terminal 1 with UI settings according to his / her dominant hand. Further, according to the first embodiment, the pen touch required for the user to operate the display terminal 1 with the UI setting according to his / her dominant hand is required at least once. Therefore, the display terminal 1 with the UI setting not according to the dominant hand is required. The number of operations can be reduced. Thus, according to the first embodiment, when the user operates the display terminal 1 with a UI that does not respond to the dominant hand, the user operates the display terminal 1 without inconvenience that the screen is hidden by the user's hand. The effect that the convenience and operativity at the time of doing increase can be show | played.

次に、第2の実施形態について説明する。
(2)第2の実施形態
第2の実施形態は、第1の実施形態と比較して、スタイラスペンの傾き方向を検出する
手法が異なる。第2の実施形態では、表示端末1の構成については第1の実施形態と同様
であるため、表示端末1の構成についての説明は省略する。
図12は、第2の実施形態におけるスタイラスペン2aの構成を表したブロック図であ
る。図12におけるCPU20、ROM21、RAM22、ペン側通信部23、ペン先ス
イッチ26、電源制御部27、バッテリー270及びバス28に関しては、第1の実施形
態と同様のため詳細な説明は省略する。スタイラスペン2aは、前記操作子の長手方向に
おける相異なる複数の箇所の位置をペン先位置検出電極24とペン中央位置検出電極50
とを備える。ペン先位置検出電極24がスタイラスペン2aのペン先近傍に、ペン中央位
置検出電極50がスタイラスペン2aの長手方向のほぼ中央の位置にそれぞれ配置される
。つまり、ペン先位置検出電極24は、スタイラスペン2aが有する長手方向においてタ
ブレット150と接する一方の側に配置されている。また、ペン中央位置検出電極50は
、スタイラスペン2aが有する長手方向において、ペン先位置検出電極24の位置から見
て他方の側に配置されている。つまり、ペン中央位置検出電極50が配置されている第2
の位置は、ペン先位置検出電極24が配置されている第1の位置よりも、入力面であるタ
ブレット150から遠い位置にある。これらは、CPU10が、タブレット150に対す
るスタイラスペン2aの傾き方向を検出することを支援するための構成である。
Next, a second embodiment will be described.
(2) Second Embodiment The second embodiment is different from the first embodiment in the method of detecting the tilt direction of the stylus pen. In the second embodiment, since the configuration of the display terminal 1 is the same as that of the first embodiment, description of the configuration of the display terminal 1 is omitted.
FIG. 12 is a block diagram showing the configuration of the stylus pen 2a in the second embodiment. Since the CPU 20, ROM 21, RAM 22, pen side communication unit 23, pen tip switch 26, power supply control unit 27, battery 270, and bus 28 in FIG. 12 are the same as those in the first embodiment, detailed description thereof is omitted. The stylus pen 2a uses the pen tip position detection electrode 24 and the pen center position detection electrode 50 as positions of a plurality of different positions in the longitudinal direction of the operation element.
With. The pen tip position detection electrode 24 is disposed in the vicinity of the pen tip of the stylus pen 2a, and the pen center position detection electrode 50 is disposed at a substantially central position in the longitudinal direction of the stylus pen 2a. That is, the pen tip position detection electrode 24 is arranged on one side in contact with the tablet 150 in the longitudinal direction of the stylus pen 2a. Further, the pen center position detection electrode 50 is disposed on the other side in the longitudinal direction of the stylus pen 2 a when viewed from the position of the pen tip position detection electrode 24. That is, the second position where the pen center position detection electrode 50 is disposed.
Is located farther from the tablet 150 which is the input surface than the first position where the pen tip position detection electrode 24 is disposed. These are configurations for assisting the CPU 10 in detecting the tilt direction of the stylus pen 2 a with respect to the tablet 150.

図13は、スタイラスペン2と表示端末との位置関係を例示する図である。
ここで、表示端末1は、入力面であるタブレット150が水平となる場所に置かれてい
るものとする。図13(a)は、スタイラスペン2aがタブレット150にタッチした様
子をタブレット150の面に平行な方向から表したものである。図13(b)は、スタイ
ラスペン2aがタブレット150にタッチした様子をタブレットの面に垂直な方向から表
したものである。ユーザーが左右どちらかの手でスタイラスペン2aを持ち、スタイラス
ペン2aによりタブレット150をタッチした際に、ペン先位置検出電極24およびペン
中央位置検出電極50から得られる座標が特定される。より具体的には、タブレット15
0に配置されたコイルLによりタブレット150の表面に磁界が形成されており、スタイ
ラスペン2aによりタブレット150がタッチされた際に、コイルLよりペン先位置検出
電極24およびペン中央位置検出電極50に電流が流れる。この電流に応じて、ペン先位
置検出電極24およびペン中央位置検出電極50に磁界が発生し、ペン先位置検出電極2
4およびペン中央位置検出電極50からタブレット150(におけるコイルL)に電磁波
を出す。表示端末1は、この電磁波に反応したコイルLの位置を検出することで、ペン先
位置検出電極24およびペン中央位置検出電極50からそれぞれタブレット150に下ろ
した垂線がそのタブレットと交わる位置の座標(以下、指示座標という)を得る。
FIG. 13 is a diagram illustrating the positional relationship between the stylus pen 2 and the display terminal.
Here, it is assumed that the display terminal 1 is placed in a place where the tablet 150 as an input surface is horizontal. FIG. 13A illustrates a state in which the stylus pen 2 a touches the tablet 150 from a direction parallel to the surface of the tablet 150. FIG. 13B shows a state in which the stylus pen 2a touches the tablet 150 from a direction perpendicular to the surface of the tablet. When the user holds the stylus pen 2a with the left or right hand and touches the tablet 150 with the stylus pen 2a, the coordinates obtained from the pen tip position detection electrode 24 and the pen center position detection electrode 50 are specified. More specifically, the tablet 15
A magnetic field is formed on the surface of the tablet 150 by the coil L arranged at 0, and when the tablet 150 is touched by the stylus pen 2a, the pen tip position detection electrode 24 and the pen center position detection electrode 50 are applied from the coil L. Current flows. In response to this current, a magnetic field is generated at the pen tip position detection electrode 24 and the pen center position detection electrode 50, and the pen tip position detection electrode 2.
4 and the pen center position detection electrode 50 emit an electromagnetic wave to the tablet 150 (coil L). The display terminal 1 detects the position of the coil L in response to the electromagnetic wave, and thereby the coordinates of the position where the perpendicular line dropped from the pen tip position detection electrode 24 and the pen center position detection electrode 50 to the tablet 150 intersects the tablet ( Hereinafter, the designated coordinates are obtained.

ここで、ペン先位置検出電極24から得られる指示座標をP1、ペン中央位置検出電極
50から得られる指示座標をP2とする。タブレット150の左上隅がx軸、y軸の原点
である。例えば右手でスタイラスペン2aを持ちタブレット150にタッチした場合、図
13(b)に示すとおり、指示座標P1のx座標と指示座標P2のx座標との位置関係は
、P2>P1の関係が成り立つ。一方、左手にスタイラスペン2aを持った場合には、P
1>P2の関係となる。このように、二つのペン先位置検出電極24およびペン中央位置
検出電極50の指示座標、特にx座標の大小関係によりスタイラスペン2aの傾き方向が
検出され、ユーザーの利き手が判定される。
Here, the designated coordinate obtained from the pen tip position detection electrode 24 is P1, and the designated coordinate obtained from the pen center position detection electrode 50 is P2. The upper left corner of the tablet 150 is the origin of the x and y axes. For example, when the stylus pen 2a is held with the right hand and the tablet 150 is touched, the positional relationship between the x coordinate of the designated coordinate P1 and the x coordinate of the designated coordinate P2 is P2> P1, as shown in FIG. . On the other hand, when holding the stylus pen 2a in the left hand, P
1> P2. In this way, the tilt direction of the stylus pen 2a is detected based on the magnitude of the indicated coordinates of the two pen tip position detection electrodes 24 and the pen center position detection electrode 50, particularly the x coordinate, and the user's dominant hand is determined.

図14は、第2の実施形態におけるスタイラスペンの傾きを検出する際の処理フロー図
である。
図14における処理の主体は表示端末1のCPU10である。ユーザーがスタイラスペ
ン2aにより表示端末1の入力面であるタブレット150に触れると、CPU10は、ペ
ン先位置検出電極24の指示座標P1を取得する(ステップS20)。次に、CPU10
は、ペン中央位置検出電極50の指示座標P2を取得する(ステップS21)。次に、C
PU10は、P1とP2との大小関係を判定する(ステップS22)。P1<P2の場合
、CPU10は、スタイラスペン2aの傾き方向を右方向と判定する(ステップS23)
。一方、検出座標の相対関係がP1>P2の場合、CPU10は、スタイラスペン2の傾
き方向を左方向と判定する(ステップS24)。傾き検出後の処理フローについては第1
の実施形態と同様であり、検出された傾き方向によって表示端末1におけるUIの制御が
行われる。このように、第2の実施形態によっても、第1の実施形態と同様の効果を奏す
ることが出来る。
FIG. 14 is a process flow diagram when detecting the tilt of the stylus pen in the second embodiment.
The subject of the processing in FIG. 14 is the CPU 10 of the display terminal 1. When the user touches the tablet 150 that is the input surface of the display terminal 1 with the stylus pen 2a, the CPU 10 acquires the indicated coordinates P1 of the pen tip position detection electrode 24 (step S20). Next, the CPU 10
Acquires the indicated coordinate P2 of the pen center position detection electrode 50 (step S21). Next, C
The PU 10 determines the magnitude relationship between P1 and P2 (step S22). When P1 <P2, the CPU 10 determines that the tilt direction of the stylus pen 2a is the right direction (step S23).
. On the other hand, when the relative relationship of the detected coordinates is P1> P2, the CPU 10 determines that the tilt direction of the stylus pen 2 is the left direction (step S24). The processing flow after detecting the tilt is the first
The UI is controlled in the display terminal 1 according to the detected tilt direction. As described above, the second embodiment can achieve the same effects as those of the first embodiment.

上記の実施形態を次のように変形してもよい。
(3)変形例
(3−1)変形例1
第1の実施形態においては、スタイラスペン2の向きを固定するためにユーザーがスタ
イラスペン2を持つときの持ち方を案内する手段として、親指指示マーク31を使用した
。スタイラスペン2の向きを固定するための方法はこれに限らず、例えば、スタイラスペ
ン2をユーザーの手の形に応じた形状にすることで、ユーザーがスタイラスペン2を持つ
方向を案内するようにしてもよい。
図15は、ユーザーの手の形状に合わせたペングリップ60がスタイラスペン2に設け
られた様子を表した説明図である。ユーザーがペングリップ60に合わせてスタイラスペ
ン2を持つことにより、スタイラスペン2の向きが固定される。これにより、スタイラス
ペン2に内臓された加速度センサー25における軸方向が固定される。
なお、ユーザーが手に持って操作する操作子は、スタイラスペン2のようなペンや鉛筆
を模した棒状の形状に限らず、ユーザーが手に持って操作を行うことが可能であり且つ長
手方向を有するものであればよい。そして、タブレット150のような入力面に対して操
作子が傾いている方向とは、その操作子の長手方向が入力面であるタブレット150に対
して傾いている方向であればよい。
The above embodiment may be modified as follows.
(3) Modification (3-1) Modification 1
In the first embodiment, the thumb instruction mark 31 is used as a means for guiding a user to hold the stylus pen 2 in order to fix the orientation of the stylus pen 2. The method for fixing the orientation of the stylus pen 2 is not limited to this. For example, the stylus pen 2 is shaped according to the shape of the user's hand so that the user can guide the direction in which the stylus pen 2 is held. May be.
FIG. 15 is an explanatory diagram showing a state in which the stylus pen 2 is provided with a pen grip 60 that matches the shape of the user's hand. When the user holds the stylus pen 2 in accordance with the pen grip 60, the orientation of the stylus pen 2 is fixed. As a result, the axial direction of the acceleration sensor 25 incorporated in the stylus pen 2 is fixed.
The operation element that the user operates with the hand is not limited to a bar-like shape that simulates a pen or pencil such as the stylus pen 2, and the user can operate it with the hand in the longitudinal direction. What is necessary is just to have. The direction in which the operation element is inclined with respect to the input surface such as the tablet 150 may be a direction in which the longitudinal direction of the operation element is inclined with respect to the tablet 150 as the input surface.

(3−2)変形例2
タブレット150に対するスタイラスペン2の傾き方向を検出するための具体的手法は
、第1及び第2の実施形態で説明した例に限定されない。
第1の実施形態においては、表示端末1の入力面であるタブレット150が水平となる
場所に表示端末1が置かれていることを前提としたが、入力面であるタブレット150が
水平とならない場所に表示端末1が置かれた場合にも、傾き方向が正常に検出できるよう
に、次のようにしてもよい。すなわち、表示端末1にも前述した加速度センサー25のよ
うな加速度センサーを内臓しておき、これらの各加速度センサーが、スタイラスペン2に
おける加速度と、表示端末1における加速度とをそれぞれ検出する。そして、CPU10
は、スタイラスペン2における加速度と表示端末1における加速度との差分を算出するこ
とにより、入力面に対するスタイラスペン2の傾き方向を検出する。
また、第2の実施形態において、スタイラスペン2に備えられた2つの位置検出電極の
配置をペン先とペン中央としたが、この配置構成は上記に限ったものではなく、2つの位
置検出電極がスタイラスペン2の長手方向において相異なる位置に配置されていればよい
。例えば位置検出電極の一方をペン先に設け、他方をペン中央位置よりもペン先に寄った
箇所に設けてもよい。また、位置検出電極の一方をペン先に設け、他方をペン中央位置よ
りペン先から離れた箇所に設けてもよい。
ただし、2つの位置検出電極の配置には一定の制限がある。スタイラスペン2の長手方
向において、各位置検出電極がペン先から遠く配置されるに従って、ユーザーがスタイラ
スペン2を持ってタブレット150に接した際に、上記各位置検出電極からタブレット1
50までの距離が長くなる。この距離が、タブレット150におけるコイルLと上記各位
置検出電極とにおける電磁誘導を発生するために必要な距離の上限値を越えると、電磁誘
導が発生せず、従って2つの位置検出電極から傾き方向を検出することができない。以上
のことから、2つの位置検出電極がスタイラスペン2の長手方向において異なる位置に配
置され、且つ、各位置検出電極の位置が、タブレット150との間で電磁誘導現象が発生
する程度の配置となっていればよい。
また、位置検出電極の数は1つに限定されず、複数であればよい。
(3-2) Modification 2
A specific method for detecting the tilt direction of the stylus pen 2 with respect to the tablet 150 is not limited to the examples described in the first and second embodiments.
In the first embodiment, it is assumed that the display terminal 1 is placed in a place where the tablet 150 which is the input surface of the display terminal 1 is horizontal, but the place where the tablet 150 which is the input surface is not horizontal. Even when the display terminal 1 is placed on the screen, the following may be performed so that the tilt direction can be detected normally. That is, the display terminal 1 also includes an acceleration sensor such as the acceleration sensor 25 described above, and each of these acceleration sensors detects the acceleration in the stylus pen 2 and the acceleration in the display terminal 1. CPU 10
Detects the inclination direction of the stylus pen 2 with respect to the input surface by calculating the difference between the acceleration in the stylus pen 2 and the acceleration in the display terminal 1.
In the second embodiment, the arrangement of the two position detection electrodes provided in the stylus pen 2 is the pen tip and the center of the pen. However, the arrangement is not limited to the above, and the two position detection electrodes are not limited to the above. Need only be arranged at different positions in the longitudinal direction of the stylus pen 2. For example, one of the position detection electrodes may be provided at the pen tip, and the other may be provided at a location closer to the pen tip than the pen center position. Alternatively, one of the position detection electrodes may be provided at the pen tip, and the other may be provided at a location away from the pen tip from the pen center position.
However, there are certain limitations on the arrangement of the two position detection electrodes. As each position detection electrode is arranged farther from the pen tip in the longitudinal direction of the stylus pen 2, when the user touches the tablet 150 with the stylus pen 2, the position detection electrode is connected to the tablet 1.
The distance up to 50 becomes longer. If this distance exceeds the upper limit of the distance necessary to generate electromagnetic induction between the coil L in the tablet 150 and each of the position detection electrodes, electromagnetic induction does not occur. Cannot be detected. From the above, the two position detection electrodes are arranged at different positions in the longitudinal direction of the stylus pen 2, and the positions of the position detection electrodes are arranged so as to generate an electromagnetic induction phenomenon with the tablet 150. It only has to be.
Further, the number of position detection electrodes is not limited to one, and may be plural.

(3−3)変形例3
第1及び第2の実施形態において、スタイラスペン2の傾き方向を検出し、検出された
傾き方向によりユーザーの利き手を判定するタイミングは、表示端末1に電源が投入され
た後における最初の1回目のペンタッチとしたが、上記タイミングはこれに限ったもので
はない。最初の1回目のペンタッチ以降、一定のタイミングで、検出されたスタイラスペ
ン2の傾き方向からユーザーの利き手を判定してもよいし、常時、ユーザーの利き手を判
定し続けるようにしてもよい。これにより、例えば右利きのユーザーが表示端末1を右利
きのUIで操作していたところに、左利きの別のユーザーが交代して表示端末1を操作し
た場合、操作を交代した左利きの別のユーザーは自らの利き手に応じたUIで表示端末1
を操作することができる。
(3-3) Modification 3
In the first and second embodiments, the timing when the tilt direction of the stylus pen 2 is detected and the user's dominant hand is determined based on the detected tilt direction is the first time after the display terminal 1 is turned on. However, the timing is not limited to this. After the first pen touch, the user's dominant hand may be determined from the detected tilt direction of the stylus pen 2 at a fixed timing, or the user's dominant hand may be continuously determined. Thus, for example, when a right-handed user is operating the display terminal 1 with a right-handed UI, and another left-handed user operates the display terminal 1 to change another left-handed user who has changed the operation. User can display terminal 1 with UI according to his / her dominant hand
Can be operated.

(3−4)変形例4
第1及び第2の実施形態では、スタイラスペン2の傾き方向からユーザーの利き手が判
定される一連の処理が正常に行われた場合を前提としているが、傾き方向を検出する際の
加速度または指示座標が、右利きと左利きを判定するための境界領域に属しており、ユー
ザーの利き手を判定することができなかった場合に備え、次のようにしてもよい。すなわ
ち、ユーザーが利き手で持ったスタイラスペン2によりタブレット150をタッチした際
に、表示端末1がユーザーの利き手を判定することができなかった場合、画面上に利き手
が判定できなかった旨のメッセージを表示するとともに、右利きと左利きを選択させるた
めのGUI部品を表示してもよい。図16は、表示端末1がユーザーの利き手を判定する
ことができなかった場合の画面表示内容を表したものである。ユーザーに選択されたGU
I部品の内容に応じて、表示端末1はUI設定を制御する。
(3-4) Modification 4
In the first and second embodiments, it is assumed that a series of processes in which the user's dominant hand is determined from the tilt direction of the stylus pen 2 is normally performed. However, the acceleration or instruction when detecting the tilt direction is assumed. The coordinates may belong to a boundary region for determining right-handedness and left-handedness, and the following may be performed in case the user's handedness cannot be determined. That is, when the display terminal 1 cannot determine the user's dominant hand when the user touches the tablet 150 with the stylus pen 2 held by the user's dominant hand, a message indicating that the dominant hand cannot be determined on the screen. In addition to displaying, a GUI component for selecting right-handed or left-handed may be displayed. FIG. 16 shows the screen display contents when the display terminal 1 cannot determine the user's dominant hand. GU selected by the user
The display terminal 1 controls UI setting according to the contents of the I component.

(3−5)変形例5
第1及び第2の実施形態では、スタイラスペン2におけるスイッチのON/OFF管理
にペン先スイッチ26を採用したが、これに替えて電源キーをスタイラスペン2に設けて
もよい。この場合、電源キーは、スタイラスペン2の長手方向においてどこに配置しても
よい。
(3-5) Modification 5
In the first and second embodiments, the pen tip switch 26 is employed for ON / OFF management of the switch in the stylus pen 2, but a power key may be provided in the stylus pen 2 instead. In this case, the power key may be disposed anywhere in the longitudinal direction of the stylus pen 2.

(3−6)変形例6
UI制御の内容は、第1及び第2の実施形態で説明した例に限定されず、ユーザの操作
を受け付けるときの態様を変更するものであればよい。例えば、GUI部品のUI制御は
、表示体140面におけるGUI部品の表示位置を利き手に応じた位置に変更するもので
あればよい。また、操作キー40,41のUI制御は、操作キー40,41の有効及び無
効を変更するものに限らず、操作キー40,41が受け付ける指示の内容を変更するもの
であればよい。例えば、利き手が右の場合には、頻繁に利用するような機能の指示を右側
の操作キー41が担当し、頻繁に利用しない機能の指示を左側の操作キー40が担当する
といった具合である。
(3-6) Modification 6
The content of the UI control is not limited to the examples described in the first and second embodiments, and may be anything that changes the manner in which a user operation is accepted. For example, the UI control of the GUI part may be any one that changes the display position of the GUI part on the display body 140 to a position corresponding to the dominant hand. Further, the UI control of the operation keys 40 and 41 is not limited to changing the validity and invalidity of the operation keys 40 and 41, but may be any one that changes the content of the instruction received by the operation keys 40 and 41. For example, when the dominant hand is on the right, the right operation key 41 is in charge of frequently used functions, and the left operation key 40 is in charge of functions that are not frequently used.

1…表示端末、2…スタイラスペン、10,20…CPU,21…ROM、12,22…R
AM、13…端末側通信部、14…表示体制御部、140…表示体、15…タブレット制御
部、150…タブレット、150x…x軸検出電極、150y…y軸検出電極、16…記
憶部、17,27…電源制御部、170,270…バッテリー、18…操作部,19,2
8…バス、23…ペン側通信部、24…ペン先位置検出電極、25…加速度センサー、2
6…ペン先スイッチ、30…ペンクリップ、31…親指指示マーク、40…左側操作キー
、41…右側操作キー、45…スクロールバー、50…ペン中央位置検出電極、60…ペ
ングリップ、L…コイル
1 ... display terminal, 2 ... stylus pen, 10, 20 ... CPU, 21 ... ROM, 12, 22 ... R
AM, 13 ... terminal side communication unit, 14 ... display body control unit, 140 ... display body, 15 ... tablet control unit, 150 ... tablet, 150x ... x-axis detection electrode, 150y ... y-axis detection electrode, 16 ... storage unit, 17, 27 ... Power supply control unit, 170,270 ... Battery, 18 ... Operation unit, 19, 2
8 ... bus, 23 ... pen side communication unit, 24 ... pen tip position detection electrode, 25 ... acceleration sensor, 2
6 ... pen tip switch, 30 ... pen clip, 31 ... thumb indication mark, 40 ... left operation key, 41 ... right operation key, 45 ... scroll bar, 50 ... pen center position detection electrode, 60 ... pen grip, L ... coil

Claims (7)

画像が表示される表示面と、
前記表示面に重ねられ、ユーザーが操作する操作子によって当該ユーザーの指示が入力
される入力面と、
前記入力面に対して前記操作子が傾いている方向である傾き方向を検出する検出手段と

前記検出手段によって検出された傾き方向に応じて、ユーザーが前記操作子を操作する
ときの利き手を判定する判定手段と、
ユーザーの指示を受け付けて当該指示に応じた処理を行う処理手段であって、前記判定
手段により判定されたユーザーの利き手に応じて、ユーザーの操作を受け付けるときの態
様を変更する処理手段と
を備えることを特徴とする情報処理装置。
A display surface on which an image is displayed;
An input surface that is superimposed on the display surface and in which an instruction of the user is input by an operator operated by the user;
Detecting means for detecting a tilt direction in which the operation element is tilted with respect to the input surface;
Determining means for determining a dominant hand when the user operates the operation element according to the inclination direction detected by the detecting means;
Processing means for receiving a user instruction and performing processing in accordance with the instruction, the processing means changing a mode when accepting a user operation according to a user's dominant hand determined by the determination means An information processing apparatus characterized by that.
前記処理手段は、
ユーザーの指示を受け付けるための画像である指示受付画像を前記表示面に表示し、前
記操作子が当該指示受付画像を指定して前記入力面に入力した指示を受け付け、
前記判定手段により判定されたユーザーの利き手に応じて、前記表示面における前記指
示受付画像の表示位置を変更する
ことを特徴とする請求項1記載の情報処理装置。
The processing means includes
An instruction acceptance image, which is an image for accepting a user instruction, is displayed on the display surface, and an instruction that is input to the input surface by the operator specifying the instruction acceptance image is accepted.
The information processing apparatus according to claim 1, wherein the display position of the instruction acceptance image on the display surface is changed according to a user's dominant hand determined by the determination unit.
ユーザーの接触動作による指示を受け付ける複数の操作キーを備え、
前記処理手段は、前記判定手段により判定されたユーザーの利き手に応じて、各々の前
記操作キーが受け付ける指示の内容を変更する
ことを特徴とする請求項1記載の情報処理装置。
It has a number of operation keys that accept instructions from the user's contact action,
The information processing apparatus according to claim 1, wherein the processing unit changes a content of an instruction received by each of the operation keys according to a user's dominant hand determined by the determination unit.
前記検出手段は、前記操作子における加速度を計測し、計測した前記加速度に基づいて
前記傾き方向を検出する
ことを特徴とする請求項1から請求項3のいずれか1項に記載の情報処理装置。
4. The information processing apparatus according to claim 1, wherein the detection unit measures an acceleration in the operator and detects the tilt direction based on the measured acceleration. 5. .
前記検出手段は、
前記操作子の長手方向における相異なる複数の箇所の位置を検出し、検出した複数の位
置に含まれる第1の位置と、当該第1の位置よりも前記入力面から遠い第2の位置との位
置関係に基づいて、前記操作子の傾き方向を特定する
ことを特徴とする請求項1から請求項3のいずれか1項に記載の情報処理装置。
The detection means includes
The position of a plurality of different locations in the longitudinal direction of the operation element is detected, and a first position included in the detected plurality of positions and a second position farther from the input surface than the first position. The information processing apparatus according to any one of claims 1 to 3, wherein an inclination direction of the operation element is specified based on a positional relationship.
画像が表示される表示面と、前記表示面に重ねられ、ユーザーが操作する操作子によっ
て当該ユーザーの指示が入力される入力面とを有する情報処理装置における情報処理方法
であって、
前記入力面に対して前記操作子が傾いている方向である傾き方向を検出するステップと

検出された前記傾き方向に応じてユーザーの利き手を判定するステップと、
判定されたユーザーの利き手に応じて、ユーザーの操作を受け付けるときの態様を変更
し、当該態様にてユーザーの指示を受け付けて当該指示に応じた処理を行うステップと
を備えることを特徴とする情報処理方法。
An information processing method in an information processing apparatus having a display surface on which an image is displayed and an input surface that is superimposed on the display surface and on which an instruction of the user is input by an operator operated by the user,
Detecting a tilt direction which is a direction in which the operation element is tilted with respect to the input surface;
Determining a user's dominant hand according to the detected tilt direction;
Changing the mode of accepting the user's operation according to the determined user's dominant hand, receiving the user's instruction in the aspect, and performing a process according to the instruction. Processing method.
画像が表示される表示面と、前記表示面に重ねられ、ユーザーが操作する操作子によっ
て当該ユーザーの指示が入力される入力面とを有する情報処理装置のコンピューターを、
前記入力面に対して前記操作子が傾いている方向である傾き方向を検出する検出手段と

前記検出手段によって検出された傾き方向に応じてユーザーの利き手を判定する判定手
段と、
ユーザーの指示を受け付けて当該指示に応じた処理を行う処理手段であって、前記判定
手段により判定されたユーザーの利き手に応じて、ユーザーの操作を受け付けるときの態
様を変更する処理手段と
して機能させるためのプログラム。
A computer of an information processing apparatus having a display surface on which an image is displayed and an input surface that is superimposed on the display surface and on which an instruction of the user is input by an operator operated by the user,
Detecting means for detecting a tilt direction in which the operation element is tilted with respect to the input surface;
Determination means for determining a user's dominant hand according to the tilt direction detected by the detection means;
A processing means for receiving a user instruction and performing a process according to the instruction, the processing means changing a mode of accepting a user operation according to the user's dominant hand determined by the determination means A program to make it work.
JP2009234088A 2009-10-08 2009-10-08 Information processor, information processing method and program Withdrawn JP2011081646A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009234088A JP2011081646A (en) 2009-10-08 2009-10-08 Information processor, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009234088A JP2011081646A (en) 2009-10-08 2009-10-08 Information processor, information processing method and program

Publications (1)

Publication Number Publication Date
JP2011081646A true JP2011081646A (en) 2011-04-21

Family

ID=44075627

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009234088A Withdrawn JP2011081646A (en) 2009-10-08 2009-10-08 Information processor, information processing method and program

Country Status (1)

Country Link
JP (1) JP2011081646A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114379A (en) * 2011-11-28 2013-06-10 Kyocera Corp Device, method, and program
JP2016035664A (en) * 2014-08-04 2016-03-17 シャープ株式会社 Input display device
KR20160136446A (en) * 2014-03-31 2016-11-29 후아웨이 테크놀러지 컴퍼니 리미티드 Method for recognizing operation mode of user on handheld device, and handheld device
US10095324B2 (en) 2013-06-28 2018-10-09 Samsung Electronics Co., Ltd. Method for handling pen multi-input event and apparatus for the same
JP2019192142A (en) * 2018-04-27 2019-10-31 レノボ・シンガポール・プライベート・リミテッド Information processing device, input control method, and input control program
CN111694451A (en) * 2020-05-22 2020-09-22 广州视源电子科技股份有限公司 Operation data processing method, device, equipment and storage medium
JP2020154482A (en) * 2019-03-19 2020-09-24 株式会社ワコム Information processing system, position indicator, and method for controlling movement of display object displayed on display screen of information processing device
CN113010253A (en) * 2021-03-19 2021-06-22 维沃移动通信有限公司 Display interface adjusting method, electronic equipment and touch pen
JP2021101398A (en) * 2016-09-01 2021-07-08 株式会社ワコム Auxiliary device and electronic equipment
US20220385773A1 (en) * 2021-05-28 2022-12-01 Kyocera Document Solutions Inc. Display device and image forming apparatus capable of determining whether user's hand having made gesture is right or left hand based on detection result of touch panel and allowing display to display screen for right-hand gesture operation or screen for left-hand gesture operation based on determination result

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013114379A (en) * 2011-11-28 2013-06-10 Kyocera Corp Device, method, and program
US10095324B2 (en) 2013-06-28 2018-10-09 Samsung Electronics Co., Ltd. Method for handling pen multi-input event and apparatus for the same
KR20160136446A (en) * 2014-03-31 2016-11-29 후아웨이 테크놀러지 컴퍼니 리미티드 Method for recognizing operation mode of user on handheld device, and handheld device
US20170017799A1 (en) * 2014-03-31 2017-01-19 Huawei Technologies Co., Ltd. Method for Identifying User Operation Mode on Handheld Device and Handheld Device
EP3118733A4 (en) * 2014-03-31 2017-03-08 Huawei Technologies Co. Ltd. Method for recognizing operation mode of user on handheld device, and handheld device
KR101963782B1 (en) 2014-03-31 2019-03-29 후아웨이 테크놀러지 컴퍼니 리미티드 Method for identifying user operation mode on handheld device and handheld device
US10444951B2 (en) 2014-03-31 2019-10-15 Huawei Technologies Co., Ltd. Method and device for identifying a left-hand or a right-hand mode of operation on a user handheld device
JP2016035664A (en) * 2014-08-04 2016-03-17 シャープ株式会社 Input display device
JP2021101398A (en) * 2016-09-01 2021-07-08 株式会社ワコム Auxiliary device and electronic equipment
JP2019192142A (en) * 2018-04-27 2019-10-31 レノボ・シンガポール・プライベート・リミテッド Information processing device, input control method, and input control program
JP2020154482A (en) * 2019-03-19 2020-09-24 株式会社ワコム Information processing system, position indicator, and method for controlling movement of display object displayed on display screen of information processing device
US11625133B2 (en) 2019-03-19 2023-04-11 Wacom Co., Ltd. Information processing system, position indicator, and method of controlling movement of display object on display screen of information processing apparatus
JP7329938B2 (en) 2019-03-19 2023-08-21 株式会社ワコム Information processing system, position indicator, and method for controlling movement of displayed object displayed on display screen of information processing device
US11921965B2 (en) 2019-03-19 2024-03-05 Wacom Co., Ltd. Information processing system, position indicator, and method of controlling movement of display object on display screen of information processing apparatus
CN111694451A (en) * 2020-05-22 2020-09-22 广州视源电子科技股份有限公司 Operation data processing method, device, equipment and storage medium
CN111694451B (en) * 2020-05-22 2024-02-06 广州视源电子科技股份有限公司 Method, device, equipment and storage medium for processing operation data
CN113010253A (en) * 2021-03-19 2021-06-22 维沃移动通信有限公司 Display interface adjusting method, electronic equipment and touch pen
US20220385773A1 (en) * 2021-05-28 2022-12-01 Kyocera Document Solutions Inc. Display device and image forming apparatus capable of determining whether user's hand having made gesture is right or left hand based on detection result of touch panel and allowing display to display screen for right-hand gesture operation or screen for left-hand gesture operation based on determination result

Similar Documents

Publication Publication Date Title
JP2011081646A (en) Information processor, information processing method and program
JP5610644B2 (en) Input device, input support method, and program
KR102109649B1 (en) Method for correcting coordination of electronic pen and potable electronic device supporting the same
US9092058B2 (en) Information processing apparatus, information processing method, and program
JP5507494B2 (en) Portable electronic device with touch screen and control method
JP4880304B2 (en) Information processing apparatus and display method
JP4734435B2 (en) Portable game device with touch panel display
KR102040857B1 (en) Function Operation Method For Electronic Device including a Pen recognition panel And Electronic Device supporting the same
WO2012150697A1 (en) Touch panel-type portable terminal and input operation method
JP2011164746A (en) Terminal device, holding-hand detection method and program
US20110050566A1 (en) Information processing apparatus, information processing method and computer program
JP6085630B2 (en) Touch pen system and touch pen
JP2014203183A (en) Information processing device and program
US20180217688A1 (en) Pen-type input apparatus and display-input system
KR20120023867A (en) Mobile terminal having touch screen and method for displaying contents thereof
JP2012199888A (en) Portable terminal
JP5461735B2 (en) Input device, input support method, and program
JP6142564B2 (en) Information display device and display control program
KR20150008963A (en) Mobile terminal and method for controlling screen
JP2015014933A (en) Information processing apparatus, and control method and program of the same
JP2013020332A (en) Display input device
JP6220429B1 (en) Information processing apparatus, touch panel sensitivity control method, and program
JP2012073698A (en) Portable terminal device
JPWO2020158088A1 (en) Drawing system
JP6508652B2 (en) Information terminal device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130108