JP5369933B2 - POSITION INDICATOR CONTROL DEVICE, POSITION INDICATOR, AND PROGRAM - Google Patents

POSITION INDICATOR CONTROL DEVICE, POSITION INDICATOR, AND PROGRAM Download PDF

Info

Publication number
JP5369933B2
JP5369933B2 JP2009151320A JP2009151320A JP5369933B2 JP 5369933 B2 JP5369933 B2 JP 5369933B2 JP 2009151320 A JP2009151320 A JP 2009151320A JP 2009151320 A JP2009151320 A JP 2009151320A JP 5369933 B2 JP5369933 B2 JP 5369933B2
Authority
JP
Japan
Prior art keywords
position information
indicating
operation target
pointing
acquisition means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009151320A
Other languages
Japanese (ja)
Other versions
JP2011008532A (en
Inventor
創 杉野
崇彦 清水
路子 村本
史 小坂
新 古川
弘治 田口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2009151320A priority Critical patent/JP5369933B2/en
Publication of JP2011008532A publication Critical patent/JP2011008532A/en
Application granted granted Critical
Publication of JP5369933B2 publication Critical patent/JP5369933B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、位置指示具制御装置、位置指示装置、プログラムに関する。   The present invention relates to a position pointing tool control device, a position pointing device, and a program.

操作者に対して力(触感)のフィードバックを返したり、表示画面に表示されたオブジェクトの質感(堅さ柔らかさ、柔軟性)を力覚させたりする技術が知られている(例えば、特許文献1、2参照)。
特許文献1では、ペン軸と垂直な2軸方向に変位動作する可動手段とペン軸方向に沿った1軸方向に変位動作する可動手段とを有するペンに対して、タブレット部から制御信号を与えることにより、これらの可動手段を変位させ、操作者に対して力を伝達している。
特許文献2では、スタイラスペンにおいて、操作者が表示画面に表示されたオブジェクトを指示し、ペン先軸を本体ケースの内側に押し込むと、オブジェクトに付属される質感プロパティに応じたフィードバック信号が出力され、このフィードバック信号に基づいて、モータが回転され、スライドカム付き内歯車のスライドカム面が変位し、スプリングに圧縮力を付与し、或いは、スプリングの圧縮力を緩めている。
Techniques are known that return force (tactile sensation) feedback to the operator or force the user to feel the texture (hardness, softness, flexibility) of an object displayed on the display screen (for example, Patent Documents). 1 and 2).
In Patent Document 1, a control signal is given from a tablet unit to a pen having movable means that moves in two axial directions perpendicular to the pen axis and movable means that moves in one axial direction along the pen axis direction. Thus, these movable means are displaced to transmit the force to the operator.
In Patent Literature 2, when an operator indicates an object displayed on the display screen and pushes the pen tip shaft into the inside of the main body case, a feedback signal corresponding to the material property attached to the object is output. Based on this feedback signal, the motor is rotated, the slide cam surface of the internal gear with the slide cam is displaced, the compression force is applied to the spring, or the compression force of the spring is loosened.

特開2000−200140号公報JP 2000-200140 A 特開2008−242894号公報JP 2008-242894 A

本発明の目的は、位置指示具の指示部材の板状体上の位置と操作対象の画面上の位置との関係を、指示部材の位置指示具本体に対する相対動作から知ることにある。   An object of the present invention is to know the relationship between the position of the pointing member of the position pointing tool on the plate and the position of the operation target on the screen from the relative movement of the pointing member with respect to the position pointing tool main body.

請求項1に記載の発明は、位置指示具の指示部材で指示された板状体上の位置を示す第1の位置情報を取得する第1の位置情報取得手段と、前記位置指示具を用いて前記板状体を指示することにより操作される画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する第2の位置情報取得手段と、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置と、前記第2の位置情報取得手段により取得された前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の前記位置指示具の本体に対する相対動作を制御する制御手段とを備え、前記制御手段は、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界に近付く方向へ移動していれば、当該指示部材が前記板状体の方向へ前記相対動作を行うように制御することを特徴とする位置指示具制御装置である。
請求項2に記載の発明は、位置指示具の指示部材で指示された板状体上の位置を示す第1の位置情報を取得する第1の位置情報取得手段と、前記位置指示具を用いて前記板状体を指示することにより操作される画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する第2の位置情報取得手段と、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置と、前記第2の位置情報取得手段により取得された前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の前記位置指示具の本体に対する相対動作を制御する制御手段とを備え、前記制御手段は、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界から遠ざかる方向へ移動していれば、当該指示部材が前記板状体の方向とは逆の方向へ前記相対動作を行うように制御することを特徴とする位置指示具制御装置である。
請求項3に記載の発明は、前記操作対象は、情報を入力するための入力欄であり、前記操作対象の境界に沿う予め定められた領域は、前記入力欄の境界に沿う当該入力欄の内側の予め定められた領域であることを特徴とする請求項1又は2に記載の位置指示具制御装置である。
請求項4に記載の発明は、前記制御手段は、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、複数の振動態様のうち当該領域に対して予め定められた振動態様で前記指示部材が前記相対動作を行うように制御することを特徴とする請求項1乃至3の何れかに記載の位置指示具制御装置である。
請求項5に記載の発明は、前記板状体上での前記指示部材の移動速度を示す速度情報を取得する速度情報取得手段を更に備え前記制御手段は、前記速度情報取得手段により取得された前記速度情報が示す移動速度に応じて、前記相対動作を制御することを特徴とする請求項1乃至4の何れかに記載の位置指示具制御装置である。
請求項6に記載の発明は、前記制御手段は、前記速度情報取得手段により取得された前記速度情報が第1の速度を示す場合に、第1の周期の振動態様で前記指示部材が前記相対動作を行うように制御し、前記速度情報取得手段により取得された前記速度情報が当該第1の速度よりも速い第2の速度を示す場合に、当該第1の周期よりも短い第2の周期の振動態様で前記指示部材が前記相対動作を行うように制御することを特徴とする請求項5に記載の位置指示具制御装置である。
請求項7に記載の発明は、前記制御手段は、複数の振動態様のうち、指定された条件に対して予め定められた振動態様で前記指示部材が前記相対動作を行うように制御することを特徴とする請求項5又は6に記載の位置指示具制御装置である。
請求項8に記載の発明は、板状体を指示することにより画面上の操作対象を操作するために用いられる指示部材と、前記指示部材で指示された板状体上の位置を示す第1の位置情報を取得する第1の位置情報取得手段と、前記画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する第2の位置情報取得手段と、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置と、前記第2の位置情報取得手段により取得された前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の自身に対する相対動作を制御する制御手段とを備え、前記制御手段は、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界に近付く方向へ移動していれば、当該指示部材が前記板状体の方向へ前記相対動作を行うように制御することを特徴とする位置指示装置である。
請求項9に記載の発明は、板状体を指示することにより画面上の操作対象を操作するために用いられる指示部材と、前記指示部材で指示された板状体上の位置を示す第1の位置情報を取得する第1の位置情報取得手段と、前記画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する第2の位置情報取得手段と、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置と、前記第2の位置情報取得手段により取得された前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の自身に対する相対動作を制御する制御手段とを備え、前記制御手段は、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界から遠ざかる方向へ移動していれば、当該指示部材が前記板状体の方向とは逆の方向へ前記相対動作を行うように制御することを特徴とする位置指示装置である。
請求項10に記載の発明は、コンピュータに、位置指示具の指示部材で指示された板状体上の位置を示す第1の位置情報を取得する機能と、前記位置指示具を用いて前記板状体を指示することにより操作される画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する機能と、前記第1の位置情報が示す位置と、前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の前記位置指示具の本体に対する相対動作を制御する機能とを実現させ、前記制御する機能は、取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界に近付く方向へ移動していれば、当該指示部材が前記板状体の方向へ前記相対動作を行うように制御するプログラムである。
請求項11に記載の発明は、コンピュータに、位置指示具の指示部材で指示された板状体上の位置を示す第1の位置情報を取得する機能と、前記位置指示具を用いて前記板状体を指示することにより操作される画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する機能と、前記第1の位置情報が示す位置と、前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の前記位置指示具の本体に対する相対動作を制御する機能とを実現させ、前記制御する機能は、取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界から遠ざかる方向へ移動していれば、当該指示部材が前記板状体の方向とは逆の方向へ前記相対動作を行うように制御するプログラムである。
The invention according to claim 1 uses the first position information acquisition means for acquiring the first position information indicating the position on the plate-shaped body designated by the pointing member of the position pointing tool, and the position pointing tool. Second position information acquisition means for acquiring second position information indicating the position of the operation target on the screen operated by instructing the plate-like body on the screen, and the first position information acquisition The position of the pointing member based on the relationship between the position indicated by the first position information acquired by the means and the position indicated by the second position information acquired by the second position information acquisition means Control means for controlling relative movement of the pointing tool with respect to the main body , and the control means is a position on the screen corresponding to the position indicated by the first position information acquired by the first position information acquisition means. Is determined in advance along the boundary of the operation target. When in was in the area, the indicating member if the moving direction toward to the boundary, characterized in that the indicating element is controlled to perform the relative movement in the direction of the plate-like body It is a position indicator control device.
The invention according to claim 2 uses the first position information acquisition means for acquiring the first position information indicating the position on the plate-shaped body indicated by the pointing member of the position pointing tool, and the position pointing tool. Second position information acquisition means for acquiring second position information indicating the position of the operation target on the screen operated by instructing the plate-like body on the screen, and the first position information acquisition The position of the pointing member based on the relationship between the position indicated by the first position information acquired by the means and the position indicated by the second position information acquired by the second position information acquisition means Control means for controlling relative movement of the pointing tool with respect to the main body, and the control means is a position on the screen corresponding to the position indicated by the first position information acquired by the first position information acquisition means. Is determined in advance along the boundary of the operation target. If the indicator member moves in a direction away from the boundary when the indicator member is within the specified area, the indicator member is controlled to perform the relative movement in a direction opposite to the direction of the plate-like body. This is a position pointing tool control device.
According to a third aspect of the present invention, the operation object is an input field for inputting information, and the predetermined area along the boundary of the operation object is the input field along the boundary of the input field. The position pointing tool control device according to claim 1, wherein the position pointing tool control device is a predetermined region inside .
According to a fourth aspect of the present invention, the control unit is configured such that a position on the screen corresponding to the position indicated by the first position information acquired by the first position information acquisition unit is a boundary of the operation target. And the pointing member is controlled to perform the relative movement in a predetermined vibration mode with respect to the region among a plurality of vibration modes. Item 4. The position indicator control device according to any one of Items 1 to 3.
The invention according to claim 5, further comprising a speed information obtaining means for obtaining the speed information indicating the moving speed of the pointing member in the plate-like body on, the control means is obtained by the velocity information acquiring means The position pointing tool control device according to claim 1 , wherein the relative movement is controlled in accordance with a moving speed indicated by the speed information.
According to a sixth aspect of the present invention, when the speed information acquired by the speed information acquisition means indicates a first speed, the control means causes the relative movement of the indicating member in a vibration mode of a first period. A second period shorter than the first period when the speed information acquired by the speed information acquisition unit indicates a second speed higher than the first speed. The position indicating tool control device according to claim 5, wherein the pointing member is controlled to perform the relative movement in the vibration mode.
According to a seventh aspect of the present invention, the control means controls the indicator member to perform the relative operation in a predetermined vibration mode with respect to a specified condition among a plurality of vibration modes. It is a position indicator control device according to claim 5 or 6, characterized in that
According to an eighth aspect of the present invention, there is provided an indication member used for operating an operation target on a screen by designating a plate-like body, and a first position indicating a position on the plate-like body designated by the indication member. First position information acquisition means for acquiring the position information of the first position information acquisition means, second position information acquisition means for acquiring the second position information indicating the position of the operation target on the screen on the screen, and the first Based on the relationship between the position indicated by the first position information acquired by the position information acquisition means and the position indicated by the second position information acquired by the second position information acquisition means, the indicating member Control means for controlling relative movement of the first position information acquisition means, and the control means has a position on the screen corresponding to the position indicated by the first position information acquired by the first position information acquisition means, Predetermined along the boundary of the operation object When in the area, the indicating member is if the moving direction toward to the boundary, characterized in that the indicating element is controlled to perform the relative movement in the direction of the plate-like body It is a position pointing device.
According to a ninth aspect of the present invention, there is provided an indication member used for operating an operation target on a screen by designating a plate-like body, and a first position indicating a position on the plate-like body designated by the indication member. First position information acquisition means for acquiring the position information of the first position information acquisition means, second position information acquisition means for acquiring the second position information indicating the position of the operation target on the screen on the screen, and the first Based on the relationship between the position indicated by the first position information acquired by the position information acquisition means and the position indicated by the second position information acquired by the second position information acquisition means, the indicating member Control means for controlling relative movement of the first position information acquisition means, and the control means has a position on the screen corresponding to the position indicated by the first position information acquired by the first position information acquisition means, Predetermined along the boundary of the operation object If the pointing member moves in a direction away from the boundary when within the specified area, control is performed so that the pointing member performs the relative movement in a direction opposite to the direction of the plate-like body. This is a position pointing device.
According to a tenth aspect of the present invention, there is provided a computer having a function of acquiring first position information indicating a position on a plate-shaped body instructed by a pointing member of a position pointing tool, and the board using the position pointing tool. A function of acquiring second position information indicating the position on the screen of the operation target on the screen operated by instructing the state, the position indicated by the first position information, and the second position Based on the relationship with the position indicated by the information, the function of controlling the relative movement of the pointing member with respect to the main body of the position pointing tool is realized, and the control function is indicated by the acquired first position information. When the position on the screen corresponding to the position is within a predetermined area along the boundary of the operation target, if the pointing member moves in a direction approaching the boundary, the pointing member is Perform the relative movement in the direction of the plate. Is a program that sea urchin control.
According to an eleventh aspect of the present invention, there is provided a computer having a function of acquiring first position information indicating a position on a plate-shaped body instructed by a pointing member of a position pointing tool, and the board using the position pointing tool. A function of acquiring second position information indicating the position on the screen of the operation target on the screen operated by instructing the state, the position indicated by the first position information, and the second position Based on the relationship with the position indicated by the information, the function of controlling the relative movement of the pointing member with respect to the main body of the position pointing tool is realized, and the control function is indicated by the acquired first position information. When the position on the screen corresponding to the position is within a predetermined region along the boundary of the operation target, if the pointing member moves in a direction away from the boundary, the pointing member is Forward in the direction opposite to the direction of the plate Is a program for controlling to perform the relative movement.

請求項1の発明によれば、位置指示具の指示部材の板状体上の位置と操作対象の画面上の位置との関係を、位置指示具の盛り上がった感じで知ることができる。
請求項2の発明によれば、位置指示具の指示部材の板状体上の位置と操作対象の画面上の位置との関係を、位置指示具の凹んだ感じで知ることができる。
請求項3の発明によれば、位置指示具の指示部材が入力欄外へ出ようとすることを位置指示具の盛り上がった感じで知ることができ、位置指示具の指示部材が入力欄の内部へ入って行こうとすることを位置指示具の凹んだ感じで知ることができる。
請求項4の発明によれば、位置指示具の指示部材が操作対象の境界領域にあることを、境界領域に対して予め定められた紙の質感で知ることができる。
請求項5の発明によれば、位置指示具で板状体を指示する際に、紙の質感(例えば、紙にあたかもボールペンや鉛筆で書いているような感覚)を疑似的に感じることができる。
請求項6の発明によれば、位置指示具で板状体を指示する際に、紙の質感をより一層感じることができる。
請求項7の発明によれば、位置指示具で板状体を指示する際に、指定された条件に対して予め定められた紙の質感を疑似的に感じることができる。
請求項8の発明によれば、位置指示具の指示部材の板状体上の位置と操作対象の画面上の位置との関係を、位置指示具の盛り上がった感じで知ることができる。
請求項9の発明によれば、位置指示具の指示部材の板状体上の位置と操作対象の画面上の位置との関係を、位置指示具の凹んだ感じで知ることができる。
請求項10の発明によれば、位置指示具の指示部材の板状体上の位置と操作対象の画面上の位置との関係を、位置指示具の盛り上がった感じで知ることができる。
請求項11の発明によれば、位置指示具の指示部材の板状体上の位置と操作対象の画面上の位置との関係を、位置指示具の凹んだ感じで知ることができる。
According to the first aspect of the present invention, the relationship between the position of the pointing member of the position pointing tool on the plate-like body and the position of the operation target on the screen can be known from the raised feeling of the position pointing tool .
According to the invention of claim 2, it is possible to know the relationship between the position of the pointing member of the position pointing tool on the plate-like body and the position of the operation target on the screen by the depressed feeling of the position pointing tool .
According to the invention of claim 3, it can be known from the feeling that the position indicating tool is going up that the pointing member of the position pointing tool is going out of the input field, and the pointing member of the position pointing tool is moved to the inside of the input field. You can know that you are going to go in with the depressed feeling of the position indicator.
According to the fourth aspect of the present invention, it is possible to know from the paper texture predetermined for the boundary region that the pointing member of the position pointing tool is in the boundary region to be operated.
According to the invention of claim 5, when the plate-shaped body is indicated by the position indicating tool, the texture of the paper (for example, feeling as if writing on a paper with a ballpoint pen or pencil) can be simulated. .
According to the sixth aspect of the present invention, it is possible to further feel the texture of the paper when the position indicating tool is used to indicate the plate-like body.
According to the seventh aspect of the present invention, when a plate-shaped body is pointed with the position pointing tool, it is possible to feel the paper texture predetermined for the specified condition in a pseudo manner.
According to the eighth aspect of the present invention, the relationship between the position on the plate-like body of the pointing member of the position pointing tool and the position on the screen of the operation target can be known from the raised feeling of the position pointing tool .
According to the ninth aspect of the present invention, the relationship between the position of the pointing member of the position pointing tool on the plate-like body and the position of the operation target on the screen can be known from the depressed feeling of the position pointing tool .
According to the tenth aspect of the present invention, it is possible to know the relationship between the position of the pointing member of the position pointing tool on the plate-like body and the position of the operation target on the screen with the raised feeling of the position pointing tool .
According to the eleventh aspect of the present invention, the relationship between the position on the plate-like body of the pointing member of the position pointing tool and the position on the screen of the operation target can be known from the depressed feeling of the position pointing tool.

本発明の実施の形態が適用されるコンピュータシステムのハードウェア構成例を示した図である。It is the figure which showed the hardware structural example of the computer system with which embodiment of this invention is applied. 本発明の実施の形態における電子ペンの構成例を示した図である。It is the figure which showed the structural example of the electronic pen in embodiment of this invention. 本発明の実施の形態における起動信号発生器の第1の構成例を説明するための図である。It is a figure for demonstrating the 1st structural example of the starting signal generator in embodiment of this invention. 本発明の実施の形態における起動信号発生器の第2の構成例を説明するための図である。It is a figure for demonstrating the 2nd structural example of the starting signal generator in embodiment of this invention. 本発明の実施の形態におけるペン先可動機構の第1の構成例を示した図である。It is the figure which showed the 1st structural example of the pen tip movable mechanism in embodiment of this invention. 本発明の実施の形態におけるペン先可動機構の第2の構成例を示した図である。It is the figure which showed the 2nd structural example of the pen tip movable mechanism in embodiment of this invention. 本発明の実施の形態におけるペン先可動機構の第3の構成例を示した図である。It is the figure which showed the 3rd structural example of the pen tip movable mechanism in embodiment of this invention. 本発明の実施の形態でディスプレイに表示される第1及び第2の操作画面例を示した図である。It is the figure which showed the example of the 1st and 2nd operation screen displayed on a display in embodiment of this invention. 本発明の実施の形態でディスプレイに表示される第3及び第4の操作画面例を示した図である。It is the figure which showed the 3rd and 4th example of an operation screen displayed on a display in embodiment of this invention. 本発明の実施の形態における位置関係比較部の動作例を示したフローチャートである。It is the flowchart which showed the operation example of the positional relationship comparison part in embodiment of this invention. 本発明の実施の形態で第1及び第2の操作画面例が表示されている場合に取得される操作対象位置情報の例を示した図である。It is the figure which showed the example of the operation target position information acquired when the 1st and 2nd operation screen example is displayed in embodiment of this invention. 本発明の実施の形態で第3及び第4の操作画面例が表示されている場合に取得される操作対象位置情報の例を示した図である。It is the figure which showed the example of the operation target position information acquired when the 3rd and 4th example of an operation screen is displayed in embodiment of this invention. 本発明の実施の形態でペン先可動機構の動作を決定するために用いられる動作定義情報の例を示した図である。It is the figure which showed the example of the action definition information used in order to determine operation | movement of a pen tip movable mechanism in embodiment of this invention.

以下、添付図面を参照して、本発明の実施の形態について詳細に説明する。
図1は、本実施の形態が適用されるコンピュータシステムのハードウェア構成例を示した図である。
図示するように、このコンピュータシステムは、PC(Personal Computer)10と、ディスプレイ20と、キーボード30と、タブレット40と、電子ペン50とを備える。
Embodiments of the present invention will be described below in detail with reference to the accompanying drawings.
FIG. 1 is a diagram illustrating a hardware configuration example of a computer system to which the exemplary embodiment is applied.
As shown in the figure, this computer system includes a PC (Personal Computer) 10, a display 20, a keyboard 30, a tablet 40, and an electronic pen 50.

PC10は、キーボード30やタブレット40から入力された情報を処理してディスプレイ20に出力する装置である。このPC10は、図示しないが、演算手段であるCPU(Central Processing Unit)と、記憶手段であるメインメモリ及び磁気ディスク装置(HDD:Hard Disk Drive)とを備える。ここで、CPUは、OS(Operating System)やアプリケーション等の各種ソフトウェアを実行し、各機能を実現する。また、メインメモリは、各種ソフトウェアやその実行に用いるデータ等を記憶する記憶領域であり、磁気ディスク装置は、各種ソフトウェアに対する入力データや各種ソフトウェアからの出力データ等を記憶する記憶領域である。   The PC 10 is a device that processes information input from the keyboard 30 or the tablet 40 and outputs the processed information to the display 20. Although not shown, the PC 10 includes a CPU (Central Processing Unit) that is a calculation means, a main memory that is a storage means, and a magnetic disk device (HDD: Hard Disk Drive). Here, the CPU executes various software such as an OS (Operating System) and an application to realize each function. The main memory is a storage area for storing various software and data used for execution thereof, and the magnetic disk device is a storage area for storing input data for various software, output data from various software, and the like.

ディスプレイ20は、画面の一例であり、PC10からの情報を表示する装置である。例えば、CRT(Cathode Ray Tube)ディスプレイや液晶ディスプレイによって実現される。
キーボード30は、キーを押下することによってPC10に情報を入力する装置である。
タブレット40は、板状体の一例であり、電子ペン50で指示された位置を電気的に読み取ってPC10に入力する装置である。
電子ペン50は、位置指示具又は位置指示装置の一例であり、指示部材の一例であるペン先でタブレット40を指示して情報の入力作業を行うために用いられる装置である。
The display 20 is an example of a screen and is a device that displays information from the PC 10. For example, it is realized by a CRT (Cathode Ray Tube) display or a liquid crystal display.
The keyboard 30 is a device for inputting information to the PC 10 by pressing a key.
The tablet 40 is an example of a plate-like body, and is a device that electrically reads a position designated by the electronic pen 50 and inputs the position to the PC 10.
The electronic pen 50 is an example of a position pointing tool or a position pointing device, and is a device used to input information by pointing the tablet 40 with a pen tip that is an example of a pointing member.

ところで、一般に、電子ペン50が接触するタブレット40の面は平坦である。従って、タブレット40と電子ペン50の組み合わせを用いて、文字入力、画像入力、或いは、ディスプレイ20に表示された操作対象への指示入力を行う場合、利用者は、通常の紙に書いている感覚を得ることが少なく、通常の筆記具を用いる場合に比べて、違和感を覚える。少しでも自然な筆記感覚を得るには、タブレット40の面を荒らす方法もあるが、この方法でも満足な筆記感覚が得られるまでには至っていない。特に、タブレット40に操作対象を表示する場合、面を荒らす方法は、操作対象の視認性を損ねるため、採用できない。   By the way, generally, the surface of the tablet 40 with which the electronic pen 50 comes into contact is flat. Therefore, when a character input, image input, or instruction input to the operation target displayed on the display 20 is performed using a combination of the tablet 40 and the electronic pen 50, the user feels that he / she writes on normal paper. It is less likely to get a sense of discomfort than when using a normal writing instrument. In order to obtain a natural writing sensation as much as possible, there is a method of roughening the surface of the tablet 40, but even this method has not yet achieved a satisfactory writing sensation. In particular, when an operation target is displayed on the tablet 40, the method of roughening the surface cannot be adopted because it impairs the visibility of the operation target.

また、電子ペン50により入力操作を行う場合、操作対象、例えば、文字入力エリア、画像入力エリア、チェックボタン、画像のページのタブ等に対して、利用者の意図通りに電子ペン50を位置付けることは容易ではない。従って、利用者は、ディスプレイ20上の操作対象とペン先を示すポインタとを見ながら、電子ペン50が操作対象に位置付けられているかを確認しながら操作しなければならなかった。このことは、利用者のタブレット40と電子ペン50による入力を不便なものにしていた。   Further, when an input operation is performed with the electronic pen 50, the electronic pen 50 is positioned as intended by the user with respect to an operation target, for example, a character input area, an image input area, a check button, an image page tab, or the like. Is not easy. Therefore, the user has to operate while checking whether the electronic pen 50 is positioned on the operation target while viewing the operation target on the display 20 and the pointer indicating the pen tip. This made the input by the user's tablet 40 and electronic pen 50 inconvenient.

そこで、本実施の形態では、電子ペン50のペン先を本体に対して相対動作可能とし、その力学的な感覚が利用者に伝わるようにする。その際、例えば、電子ペン50のペン先をその速度や位置に応じたランダムな波形により振動させ、紙等に書いている場合のような、下地のデコボコ感やザラザラ感を利用者に与えるようにする。また、電子ペン50のペン先の可動部分の動きを制御するコントローラは、ペン先の位置によって決められるディスプレイ20上のペン先を示すシンボル(カーソル)の位置と、ディスプレイ20に表示されている操作対象の位置が接近したり重なったりした場合、ペン先を動作させる。   Therefore, in the present embodiment, the pen tip of the electronic pen 50 can be moved relative to the main body so that the dynamic sense is transmitted to the user. At that time, for example, the pen tip of the electronic pen 50 is vibrated with a random waveform according to the speed and position thereof, and the user feels a rough and rough feeling of the background as when writing on paper or the like. To. Further, the controller that controls the movement of the movable part of the pen tip of the electronic pen 50 includes the position of the symbol (cursor) indicating the pen tip on the display 20 determined by the pen tip position and the operation displayed on the display 20. When the target position approaches or overlaps, the pen tip is moved.

次に、このような動作を行う電子ペン50の機能構成について説明する。
図2は、電子ペン50の機能構成例を示したブロック図である。
ペン先位置検出部51は、タブレット40より得られた電子ペン50のペン先(カーソル表示されている)の位置を検出し、ペン先の位置を示すペン先位置情報を出力する。本実施の形態では、指示部材で指示された板状体上の位置を示す第1の位置情報の一例として、ペン先位置情報を用いており、第1の位置情報を取得する第1の位置情報取得手段の一例として、ペン先位置検出部51を設けている。
操作対象検出部52は、ディスプレイ20に表示された操作対象(オブジェクト)の位置をPC10からの情報に基づいて検出し、操作対象の位置を示す操作対象位置情報を出力する。本実施の形態では、操作対象の画面上の位置を示す第2の位置情報の一例として、操作対象位置情報を用いており、第2の位置情報を取得する第2の位置情報取得手段の一例として、操作対象検出部52を設けている。
Next, a functional configuration of the electronic pen 50 that performs such an operation will be described.
FIG. 2 is a block diagram illustrating a functional configuration example of the electronic pen 50.
The pen tip position detection unit 51 detects the position of the pen tip (cursor displayed) of the electronic pen 50 obtained from the tablet 40, and outputs pen tip position information indicating the position of the pen tip. In the present embodiment, the pen position information is used as an example of the first position information indicating the position on the plate-shaped body instructed by the indicating member, and the first position from which the first position information is acquired. As an example of the information acquisition unit, a pen tip position detection unit 51 is provided.
The operation target detection unit 52 detects the position of the operation target (object) displayed on the display 20 based on information from the PC 10 and outputs operation target position information indicating the position of the operation target. In the present embodiment, the operation target position information is used as an example of the second position information indicating the position of the operation target on the screen, and an example of a second position information acquisition unit that acquires the second position information. As shown, an operation target detection unit 52 is provided.

位置関係比較部53は、ペン先位置検出部51が出力したペン先位置情報と操作対象検出部52が出力した操作対象位置情報とを比較し、ペン先の位置と操作対象の位置との関係に対して予め定められた起動情報を出力する。
起動信号発生器54は、位置関係比較部53が出力した起動情報やペン先位置検出部51が出力した位置情報に基づいて、ペン先可動機構55を起動するための起動信号を発生させる。本実施の形態では、位置指示具の相対動作を制御する制御手段の一例として、起動信号発生器54を設けている。
ペン先可動機構55は、起動信号発生器54が発生させた起動信号に基づいて電子ペン50のペン先を動作させるメカニズムである。このペン先可動機構55の詳細については後述する。
The positional relationship comparison unit 53 compares the pen tip position information output from the pen tip position detection unit 51 with the operation target position information output from the operation target detection unit 52, and the relationship between the pen tip position and the operation target position. Output predetermined activation information.
The activation signal generator 54 generates an activation signal for activating the pen tip movable mechanism 55 based on the activation information output by the positional relationship comparison unit 53 and the position information output by the pen tip position detection unit 51. In the present embodiment, an activation signal generator 54 is provided as an example of a control unit that controls the relative movement of the position pointing tool.
The pen tip moving mechanism 55 is a mechanism for operating the pen tip of the electronic pen 50 based on the start signal generated by the start signal generator 54. Details of the pen tip moving mechanism 55 will be described later.

次に、起動信号発生器54について説明する。
図3は、起動信号発生器54の第1の構成例に関する図である。
(a)に示すように、この場合の起動信号発生器54は、パルス発生制御器61と、第1パルス発生器62と、第2パルス発生器63とを備える。
パルス発生制御器61は、位置関係比較部53が出力した起動情報に従い、第1パルス発生器62又は第2パルス発生器63を起動する。
第1パルス発生器62は、ペン先可動機構55を動作させる起動信号として、予め定めた形状のパルスAを発生させる。
第2パルス発生器63は、ペン先可動機構55を動作させる起動信号として、パルスAとは異なる予め定められた形状のパルスBを発生させる。
Next, the activation signal generator 54 will be described.
FIG. 3 is a diagram relating to a first configuration example of the activation signal generator 54.
As shown in (a), the activation signal generator 54 in this case includes a pulse generation controller 61, a first pulse generator 62, and a second pulse generator 63.
The pulse generation controller 61 activates the first pulse generator 62 or the second pulse generator 63 according to the activation information output from the positional relationship comparison unit 53.
The first pulse generator 62 generates a pulse A having a predetermined shape as an activation signal for operating the pen tip moving mechanism 55.
The second pulse generator 63 generates a pulse B having a predetermined shape different from the pulse A as an activation signal for operating the pen tip movable mechanism 55.

ここで、パルスA及びパルスBについて説明する。
(b)は、パルスA及びパルスBの具体例を示した図である。
図示するように、パルスAは、凸状の形状を有しており、ペン先のタブレット40の方向への相対動作の一例として、ペン先を突出させる動作をペン先可動機構55に行わせるためのパルスである。また、パルスBは、凹状の形状を有しており、ペン先のタブレット40の方向とは逆方向への相対動作の一例として、ペン先を引っ込める動作をペン先可動機構55に行わせるためのパルスである。
Here, the pulse A and the pulse B will be described.
(B) is a diagram showing a specific example of pulse A and pulse B. FIG.
As shown in the figure, the pulse A has a convex shape, and causes the pen tip movable mechanism 55 to perform an operation of projecting the pen tip as an example of a relative motion of the pen tip in the direction of the tablet 40. This is a pulse. Further, the pulse B has a concave shape, and as an example of a relative operation in the direction opposite to the direction of the tablet 40 of the pen tip, the pen tip movable mechanism 55 is caused to perform the operation of retracting the pen tip. It is a pulse.

図4は、起動信号発生器54の第2の構成例に関する図である。
(a)に示すように、この場合の起動信号発生器54は、ペン速度検出器66と、振動パターンROM67−1〜67−nと、振動発生制御器68と、D/A変換器69とを備える。
ペン速度検出器66は、ペン先位置検出部51が出力したペン先位置情報とペン先の移動にかかった時間の情報とに基づいてペン速度を検出し、振動パターンのピッチ(周期)を決定するためのピッチ情報を出力する。本実施の形態では、指示部材の移動速度を示す速度情報を取得する速度情報取得手段の一例として、ペン速度検出器66を設けている。
振動パターンROM67−1〜67−nは、それぞれ、ペン先を振動させるパターンである振動パターンのデータを記憶する。
振動発生制御器68は、位置関係比較部53が出力した起動情報に従い、振動パターンROM67−1〜67−nの何れかから振動パターンのデータを取り出すと共に、ペン速度検出器66が出力したピッチ情報に基づいて、ペン速度に応じた振動パターンのデータに変形して出力することにより、振動パターンの発生を制御する。
D/A変換器69は、振動発生制御器68が出力した振動パターンのデータをアナログ信号である起動信号に変換する。
尚、この構成例では、ペン先位置検出部51が出力したペン先位置情報を受けたペン速度検出器66がペン速度を求めたが、例えば、電子ペン50内に加速度センサを設け、この加速度センサがペン速度を求めるようにしてもよい。
FIG. 4 is a diagram relating to a second configuration example of the activation signal generator 54.
As shown in (a), the activation signal generator 54 in this case includes a pen speed detector 66, vibration pattern ROMs 67-1 to 67-n, a vibration generation controller 68, a D / A converter 69, and the like. Is provided.
The pen speed detector 66 detects the pen speed based on the pen tip position information output from the pen tip position detection unit 51 and information on the time taken to move the pen tip, and determines the pitch (cycle) of the vibration pattern. Output pitch information. In the present embodiment, a pen speed detector 66 is provided as an example of speed information acquisition means for acquiring speed information indicating the moving speed of the pointing member.
Each of the vibration pattern ROMs 67-1 to 67-n stores vibration pattern data that is a pattern for vibrating the pen tip.
The vibration generation controller 68 takes out vibration pattern data from any one of the vibration pattern ROMs 67-1 to 67-n according to the activation information output from the positional relationship comparison unit 53, and the pitch information output from the pen speed detector 66. The generation of the vibration pattern is controlled by transforming and outputting the vibration pattern data corresponding to the pen speed based on the above.
The D / A converter 69 converts the vibration pattern data output from the vibration generation controller 68 into an activation signal that is an analog signal.
In this configuration example, the pen speed detector 66 that has received the pen tip position information output from the pen tip position detector 51 determines the pen speed. For example, an acceleration sensor is provided in the electronic pen 50, and the acceleration is detected. The sensor may determine the pen speed.

ここで、起動信号となる振動パターンについて説明する。
(b)は、振動パターンA、振動パターンB、振動パターンCの具体例を示した図である。
図示するように、振動パターンAはサイン波であり、振動パターンBは三角波であり、振動パターンCはランダム波であり、これらの振動パターンを切り替えることにより、電子ペン50による書き味が変化する。つまり、これらの振動パターンは、擬似的に紙の質感を感じさせる起動信号を発生させるために用いられる。例えば、紙の質感に振動パターンを対応付けておき、ユーザが感じたい質感を入力すると、この質感に対応付けられた振動パターンを選択するとよい。但し、紙の質感に限らず、何らかの条件を指定し、この指定された条件に対して予め定められた振動パターンを選択するものでもよい。
また、タブレット40上に電子ペン50を走らせると、ペン速度検出器66又は加速度センサにより、タブレット40上をペン先が走る速度が検出され、その速度によって、振動パターンのピッチが変わる。具体的には、ペン先が走る速度が遅いときには、ピッチが大きくなり(周期が長くなり)、ペン先が走る速度が速いときには、ピッチが小さくなる(周期が短くなる)。これにより、利用者は、タブレット40上に電子ペン50を走らせているにも関わらず、例えばザラ紙や波板の上に書いている感触を受ける。
尚、ここでは、振動パターンとして、サイン波、三角波、ランダム波の3種類の波形を示したが、これはあくまで例であり、他の波形を採用してもよい。
Here, the vibration pattern serving as the activation signal will be described.
(B) is a diagram showing specific examples of vibration pattern A, vibration pattern B, and vibration pattern C. FIG.
As shown in the figure, the vibration pattern A is a sine wave, the vibration pattern B is a triangular wave, and the vibration pattern C is a random wave. By switching between these vibration patterns, the writing quality of the electronic pen 50 changes. That is, these vibration patterns are used to generate an activation signal that makes the user feel the texture of paper in a pseudo manner. For example, when a vibration pattern is associated with the texture of paper and a texture desired by the user is input, the vibration pattern associated with the texture may be selected. However, the present invention is not limited to the texture of paper, and some condition may be designated and a vibration pattern predetermined for the designated condition may be selected.
When the electronic pen 50 is run on the tablet 40, the pen speed detector 66 or the acceleration sensor detects the speed at which the pen tip runs on the tablet 40, and the pitch of the vibration pattern changes according to the speed. Specifically, when the pen tip travels at a low speed, the pitch increases (the cycle increases), and when the pen tip travels at a high speed, the pitch decreases (the cycle shortens). As a result, the user receives a feeling of writing on, for example, rough paper or corrugated board, even though the electronic pen 50 is running on the tablet 40.
Here, although three types of waveforms of sine wave, triangular wave, and random wave are shown as the vibration pattern, this is only an example, and other waveforms may be adopted.

次いで、本実施の形態におけるペン先可動機構55について説明する。
図5は、ペン先可動機構55の第1の構成例を示した図である。
この第1の構成例は、圧電アクチュエータによるペン先可動機構55の例である。
図示するように、この場合のペン先可動機構55は、ペン先から延びるペン軸70を動作させる機構として、電源供給部71と、圧電アクチュエータ72と、弾性材料73とを含む。
電源供給部71は、起動信号発生器54が出力した起動信号に従い、圧電アクチュエータ72に電圧を印加する。
圧電アクチュエータ72は、電源供給部71により印加される電圧に比例してペン軸70方向に伸縮する。
弾性材料73は、ペン軸70を圧電アクチュエータ72に密着させる方向に付勢する例えばスプリングである。
このような構成により、圧電アクチュエータ72がペン軸70の一端を押し引きするので、ペン先は、本体から突出する方向へ動いたり、本体に引っ込む方向へ動いたりするようになる。このときのペン先の可動のストロークは20μmから100μm程度が望ましい。
Next, the pen tip movable mechanism 55 in the present embodiment will be described.
FIG. 5 is a diagram illustrating a first configuration example of the pen tip movable mechanism 55.
The first configuration example is an example of a pen tip moving mechanism 55 using a piezoelectric actuator.
As shown in the figure, the pen tip moving mechanism 55 in this case includes a power supply unit 71, a piezoelectric actuator 72, and an elastic material 73 as a mechanism for operating a pen shaft 70 extending from the pen tip.
The power supply unit 71 applies a voltage to the piezoelectric actuator 72 according to the activation signal output from the activation signal generator 54.
The piezoelectric actuator 72 expands and contracts in the direction of the pen shaft 70 in proportion to the voltage applied by the power supply unit 71.
The elastic material 73 is, for example, a spring that biases the pen shaft 70 in a direction in which the pen shaft 70 is in close contact with the piezoelectric actuator 72.
With such a configuration, since the piezoelectric actuator 72 pushes and pulls one end of the pen shaft 70, the pen tip moves in a direction protruding from the main body or in a direction retracting into the main body. The movable stroke of the pen tip at this time is preferably about 20 μm to 100 μm.

図6は、ペン先可動機構55の第2の構成例を示した図である。
この第2の構成例は、ボイスコイルモータによるペン先可動機構55の例である。
図示するように、この場合のペン先可動機構55は、ペン先から延びるペン軸70を動作させる機構として、ボイスコイル機構74と、ベアリング75とを含む。ボイスコイル機構74は、ベアリング75により、ペン軸70を中心に回転自在に支持されている。
また、このボイスコイル機構74は、軸受け741と、ボイスコイルモータ742と、コイル位置センサ743とを含む。ペン先がタブレット40に接触すると、常に、ペン軸70がタブレット40に対して平行になる方向に軸受け741を中心としてわずかに回転してその状態がボイスコイルモータ742により保持される。また、コイル位置センサ743は、ペン先の移動量を精密にコントロールするために取り付けられたものであり、光学式センサであっても抵抗式センサであってもよい。このときのペン先の移動量は20μmから100μm程度が望ましい。
尚、ベアリング75がなくても、ペン先にわずかに角度がついていると、利用者は、電子ペン50を、タブレット40とペン軸70とが平行になる回転角で用いることが多い。そのため、ベアリング75は必ずしも必要ではない。
FIG. 6 is a diagram illustrating a second configuration example of the pen tip movable mechanism 55.
This second configuration example is an example of the pen tip moving mechanism 55 using a voice coil motor.
As illustrated, the pen tip movable mechanism 55 in this case includes a voice coil mechanism 74 and a bearing 75 as a mechanism for operating a pen shaft 70 extending from the pen tip. The voice coil mechanism 74 is supported by a bearing 75 so as to be rotatable about the pen shaft 70.
The voice coil mechanism 74 includes a bearing 741, a voice coil motor 742, and a coil position sensor 743. When the pen tip comes into contact with the tablet 40, the pen shaft 70 is rotated slightly around the bearing 741 in a direction parallel to the tablet 40, and the state is held by the voice coil motor 742. The coil position sensor 743 is attached to precisely control the amount of movement of the pen tip, and may be an optical sensor or a resistance sensor. The amount of movement of the pen tip at this time is preferably about 20 μm to 100 μm.
Even if the bearing 75 is not provided, if the pen tip is slightly angled, the user often uses the electronic pen 50 at a rotation angle at which the tablet 40 and the pen shaft 70 are parallel. Therefore, the bearing 75 is not always necessary.

図7は、ペン先可動機構55の第3の構成例を示した図である。
この第3の構成例は、回転モータによるペン先可動機構55の例である。
図示するように、この場合のペン先可動機構55は、ペン先から延びるペン軸70を動作させる機構として、ベアリング76と、ロータリーエンコーダ77と、回転モータ78とを含む。この構成例において、ペン先は、ペン軸70の中心軸からわずかに(例えば、50μm程度)屈曲しており、ペン軸70は、ベアリング76により、回転自在に保持されている。また、ロータリーエンコーダ77は、例えば、ペン軸70が回転するごとにパルスを出力するものであるが、設けなくてもよい。この構成例では、回転モータ78によってペン軸70を回転させることにより、ペン先を動作させる。回転モータ78を連続回転させれば、ペン先にサイン波の振動を与えるのと同じ効果が得られる。例えば、ペン先が盛り上がったように感じられる。このように、第3の構成例は、振動パターンを変化させないのであれば、簡単な機構でペン先を振動させることができる構成例である。
FIG. 7 is a diagram illustrating a third configuration example of the pen tip movable mechanism 55.
This third configuration example is an example of the pen tip movable mechanism 55 using a rotary motor.
As illustrated, the pen tip movable mechanism 55 in this case includes a bearing 76, a rotary encoder 77, and a rotary motor 78 as a mechanism for operating a pen shaft 70 extending from the pen tip. In this configuration example, the pen tip is slightly bent (for example, about 50 μm) from the central axis of the pen shaft 70, and the pen shaft 70 is rotatably held by a bearing 76. The rotary encoder 77 outputs a pulse each time the pen shaft 70 rotates, for example, but may not be provided. In this configuration example, the pen tip is operated by rotating the pen shaft 70 by the rotation motor 78. If the rotary motor 78 is continuously rotated, the same effect as that of applying a sine wave vibration to the pen tip can be obtained. For example, it feels like the pen nib has risen. As described above, the third configuration example is a configuration example in which the pen tip can be vibrated with a simple mechanism as long as the vibration pattern is not changed.

尚、図5〜図7に示したペン先可動機構55は、あくまで例示に過ぎない。図3に示したパルス状の動作や図4に示した振動パターンの振動をペン先に伝えることが可能な機構であれば、如何なる機構を採用してもよい。   The pen tip movable mechanism 55 shown in FIGS. 5 to 7 is merely an example. Any mechanism may be adopted as long as it can transmit the pulse-like operation shown in FIG. 3 and the vibration of the vibration pattern shown in FIG. 4 to the pen tip.

さて、本実施の形態では、先に述べたように、ペン先の位置と操作対象の位置との関係に応じて、ペン先を動作させる制御を行う。
そこで、電子ペン50による操作対象を含む操作画面例を示す。
図8−1(a)は、第1の操作画面例を示した図である。
この第1の操作画面例は、利用者が手書きサインを登録するための登録画面である。
図示するように、ディスプレイ20には、手書きサインを入力するためのサイン入力欄81が表示されている。
従来、サイン入力欄81に手書きサインを入力する場合、手書きサインがサイン入力欄81をはみ出してしまうことがあった。そうなると、有効な手書きサインの画像がシステムに登録されなくなってしまう。
In the present embodiment, as described above, control for operating the pen tip is performed in accordance with the relationship between the position of the pen tip and the position of the operation target.
Therefore, an example of an operation screen including an operation target by the electronic pen 50 is shown.
FIG. 8A is a diagram illustrating a first operation screen example.
This first operation screen example is a registration screen for a user to register a handwritten signature.
As shown in the figure, a sign input field 81 for inputting a handwritten signature is displayed on the display 20.
Conventionally, when a handwritten signature is input in the signature input field 81, the handwritten signature sometimes protrudes from the signature input field 81. If this happens, an image of a valid handwritten signature will not be registered in the system.

そこで、本実施の形態では、サイン入力欄81の枠の部分にペン先のカーソルが重なったら、ペン先をパルス状に動かすようにする。例えば、サイン入力欄81の枠からペン先がはみ出しそうになったら、ペン先をパルスAに従って動かすことにより、ペン先が盛り上がった感じを利用者に与える。また、サイン入力欄81の枠からペン先がはみ出しそうな状態を回避すれば、ペン先をパルスBのように動かすことにより、凹んだ感じを利用者に与える。こうすることにより、利用者は、サイン入力欄81に収まるように正しく手書きサインを入力できるようになる。
また、サイン入力欄81の枠よりも更に内側と外側に領域を設定し、内側の領域に位置する場合と外側の領域に位置する場合とで、ペン先に対し、振動パターン、振幅、ピッチの何れか又は全てが異なる動作をさせてもよい。
Therefore, in the present embodiment, when the pen tip cursor overlaps the frame portion of the sign input field 81, the pen tip is moved in a pulse shape. For example, when the pen tip is about to protrude from the frame of the sign input field 81, the user feels that the pen tip is raised by moving the pen tip according to the pulse A. Further, if the state where the pen tip is likely to protrude from the frame of the sign input field 81 is avoided, the pen tip is moved like a pulse B to give the user a depressed feeling. By doing so, the user can input the handwritten signature correctly so as to fit in the signature input field 81.
Also, areas are set on the inside and outside of the frame of the sign input field 81, and the vibration pattern, amplitude, and pitch of the pen tip are different depending on whether the area is located on the inside area or the outside area. Any or all of them may perform different operations.

尚、図では、サイン入力欄81の枠を中心とした領域(枠領域)を網かけで示しているが、この網かけは説明のために施したものであり、実際の操作画面には表示しなくてよい。ここで、枠領域は、操作対象の境界に沿う予め定められた領域の一例である。
また、図には、サイン入力欄81の枠の左端のX座標、右端のX座標、上端のY座標、下端のY座標が、それぞれ、X01、X02、Y01、Y02であり、その枠領域の内周の左端のX座標、右端のX座標、上端のY座標、下端のY座標が、それぞれ、X03、X04、Y03、Y04であり、その枠領域の外周の左端のX座標、右端のX座標、上端のY座標、下端のY座標が、それぞれ、X05、X06、Y05、Y06であることも示されている。
In the figure, the area centering on the frame of the sign input field 81 (frame area) is shown by shading, but this shading is given for explanation and is displayed on the actual operation screen. You don't have to. Here, the frame region is an example of a predetermined region along the boundary of the operation target.
In the figure, the leftmost X coordinate, rightmost X coordinate, uppermost Y coordinate, and lowermost Y coordinate of the frame of the sign input field 81 are X01, X02, Y01, and Y02, respectively. The X coordinate of the left end of the inner circumference, the X coordinate of the right end, the Y coordinate of the upper end, and the Y coordinate of the lower end are X03, X04, Y03, and Y04, respectively. It is also shown that the coordinates, the upper Y coordinate, and the lower Y coordinate are X05, X06, Y05, and Y06, respectively.

図8−1(b)は、第2の操作画面例を示した図である。
この第2の操作画面例は、利用者がフリーハンドで図形等を入力するための入力画面である。
この第2の操作画面例においても、図形等がフリーハンド入力欄82内に収まるように、電子ペン50の動きを誘導することができるが、この第2の操作画面例では、加えて、中心線83,84等のマーカ情報も視覚だけでなくペン先の動きから知ることができるようになっている。これにより、利用者は、正確に図形等を入力できるようになる。
FIG. 8A is a diagram illustrating a second operation screen example.
The second operation screen example is an input screen for a user to input a figure or the like freehand.
Even in this second operation screen example, the movement of the electronic pen 50 can be guided so that the figure or the like fits in the freehand input field 82. However, in this second operation screen example, in addition, the center Marker information such as lines 83 and 84 can be known not only from the visual sense but also from the movement of the pen tip. Thereby, the user can input a figure etc. correctly.

また、電子ペン50のペン先とは反対の側に、ペン先可動機構55と同様の可動機構と、ペン先ではなく消しゴム程度の大きさの消しゴム部材とを設けると共に、電子ペン50内に加速度センサ、水銀スイッチ、ボールスイッチ等の姿勢を感知するセンサを組み込み、電子ペン50が反転している場合には、消しゴム部材に対して、鉛筆に付された消しゴムのような動作をさせるようにしてもよい。この場合、既に書かれているフリーハンド図面等を消す場合、消す対象の部分に触れたときに、振動や盛り上がり感を与えるための動作を消しゴム部材に与えて、利用者にこそぎ落としているような感覚を与えるようにしてもよい。   Further, on the side opposite to the pen tip of the electronic pen 50, a movable mechanism similar to the pen tip movable mechanism 55 and an eraser member having a size of an eraser instead of the pen tip are provided, and the acceleration within the electronic pen 50 is provided. When a sensor such as a sensor, a mercury switch, or a ball switch is incorporated and the electronic pen 50 is inverted, the eraser member is caused to operate like an eraser attached to a pencil. Also good. In this case, when erasing a freehand drawing or the like that has already been written, when the part to be erased is touched, an operation for giving a vibration or a feeling of excitement is given to the eraser member, and the user is scraped off. You may make it give such a feeling.

尚、図では、フリーハンド入力欄82の枠及び中心線83,84を中心とした領域(枠領域)を網かけで示しているが、この網かけは説明のために施したものであり、実際の操作画面には表示しなくてよい。ここで、枠領域は、操作対象の境界に沿う予め定められた領域の一例である。
また、図には、フリーハンド入力欄82の枠の左端のX座標、右端のX座標、上端のY座標、下端のY座標が、それぞれ、X11、X12、Y11、Y12であり、その枠領域の内周の左端のX座標、右端のX座標、上端のY座標、下端のY座標が、それぞれ、X13、X14、Y13、Y14であり、その枠領域の外周の左端のX座標、右端のX座標、上端のY座標、下端のY座標が、それぞれ、X15、X16、Y15、Y16であることも示されている。また、中心線83のX座標、その枠領域の左端のX座標、その枠領域の右端のX座標が、それぞれ、X17、X18、X19であり、中心線84のY座標、その枠領域の上端のY座標、その枠領域の下端のY座標が、それぞれ、Y17、Y18、Y19であることも示されている。
In the drawing, the frame of the freehand input field 82 and the area centered on the center lines 83 and 84 (frame area) are shaded, but this shading is given for explanation. It does not have to be displayed on the actual operation screen. Here, the frame region is an example of a predetermined region along the boundary of the operation target.
In the figure, the left end X coordinate, the right end X coordinate, the upper end Y coordinate, and the lower end Y coordinate of the freehand input field 82 are X11, X12, Y11, and Y12, respectively. The X coordinate of the left end of the inner periphery, the X coordinate of the right end, the Y coordinate of the upper end, and the Y coordinate of the lower end are X13, X14, Y13, and Y14, respectively, and the X coordinate of the left end of the outer periphery of the frame region and the right end It is also shown that the X coordinate, the upper Y coordinate, and the lower Y coordinate are X15, X16, Y15, and Y16, respectively. Further, the X coordinate of the center line 83, the X coordinate of the left end of the frame region, and the X coordinate of the right end of the frame region are X17, X18, and X19, respectively, and the Y coordinate of the center line 84 and the upper end of the frame region It is also shown that the Y coordinate of Y and the Y coordinate of the lower end of the frame area are Y17, Y18, and Y19, respectively.

図8−2(c)は、第3の操作画面例を示した図である。
この第3の操作画面例は、チェックボックス85−1〜85−5の何れかをチェックして用紙サイズを選択するための選択画面である。尚、以下では、チェックボックス85−1〜85−5を総称してチェックボックス85ともいう。
この第3の操作画面例では、利用者がチェックボックス85をチェックしようとした場合、チェックボックス85が有効であれば、ペン先を振動させたりパルス状に動作させたりして、有効なチェックボックス85を選択しようとしていることを利用者に知らせる。
例えば、B4、A3の用紙サイズを選択できない場合を考える。この場合、B4、A3の用紙サイズに対応するチェックボックス85−2,85−3は無効なので、図のように、有効なチェックボックス85−1,85−4,85−5とは異なる色(例えば、グレイアウト)で表示する。そして、A4、B5、Letterの用紙サイズに対応する有効なチェックボックス85−1,85−4,85−5の上にカーソルが重なったら、ペン先を振動させたりパルス状に動作させたりする。一方、無効なチェックボックス85−2,85−3の上にカーソルが重なっても、ペン先は動作させない。
FIG. 8C is a diagram illustrating a third operation screen example.
The third operation screen example is a selection screen for selecting any of the check boxes 85-1 to 85-5 to select a paper size. Hereinafter, the check boxes 85-1 to 85-5 are collectively referred to as the check box 85.
In this third example of the operation screen, when the user tries to check the check box 85, if the check box 85 is valid, the pen tip is vibrated or operated in a pulsed manner to check the check box 85. Inform the user that he is going to select 85.
For example, consider a case where the paper sizes B4 and A3 cannot be selected. In this case, since the check boxes 85-2 and 85-3 corresponding to the paper sizes B4 and A3 are invalid, as shown in the drawing, the color (and color different from the valid check boxes 85-1, 85-4 and 85-5) For example, it is displayed in grayout. When the cursor is over the valid check boxes 85-1, 85-4, and 85-5 corresponding to A4, B5, and Letter paper sizes, the pen tip is vibrated or operated in a pulsed manner. On the other hand, even if the cursor is over the invalid check boxes 85-2 and 85-3, the pen tip is not operated.

また、重要な選択、例えば支払い承認等のためのチェックボックス85については、チェックボックス85の全体を塗り潰すことを要求してもよい。塗り潰し操作中はペン先に塗り潰し中であることを示す振動を与え続ける。チェックボックス85の塗り潰しが視覚的に終了した時点、又は、予め定めた塗り潰し操作の時間が経過した時点で、塗り潰し中であることを示す振動を停止することで、塗り潰しの完了を利用者に呈示する。このように、一連の塗り潰し操作を要求することで、重要なチェックボックス85の選択について、適切な判断を利用者が下せるようになる。また、電子ペン50による塗り潰しの開始や完了が利用者にとって分かり易くなる。   Further, for the check box 85 for important selection, for example, payment approval, the entire check box 85 may be requested to be filled. During the filling operation, the pen tip is continuously vibrated to indicate that it is being painted. When the filling of the check box 85 is visually finished or when a predetermined filling operation time has elapsed, the completion of the filling is presented to the user by stopping the vibration indicating that the filling is in progress. To do. In this way, by requesting a series of painting operations, the user can make an appropriate determination regarding the selection of the important check box 85. In addition, the user can easily understand the start and completion of painting with the electronic pen 50.

尚、図には、チェックボックス85−1,85−2,85−3の枠の左端のX座標、それらの枠の右端のX座標、チェックボックス85−4,85−5の枠の左端のX座標、それらの枠の右端のX座標が、それぞれ、X21、X22、X23、X24であり、チェックボックス85−1,85−4の枠の上端のY座標、それらの枠の下端のY座標、チェックボックス85−2,85−5の枠の上端のY座標、それらの枠の下端のY座標、チェックボックス85−3の枠の上端のY座標、その枠の下端のY座標が、それぞれ、Y21、Y22、Y23、Y24、Y25、Y26であることも示されている。   In the figure, the X coordinate of the left end of the frame of the check boxes 85-1, 85-2, 85-3, the X coordinate of the right end of the frame, the left end of the frame of the check boxes 85-4, 85-5 are shown. The X coordinate and the X coordinate of the right end of those frames are X21, X22, X23, and X24, respectively, the Y coordinate of the upper ends of the check boxes 85-1, 85-4, and the Y coordinate of the lower ends of those frames , The Y coordinate of the upper ends of the frames of the check boxes 85-2 and 85-5, the Y coordinate of the lower ends of the frames, the Y coordinate of the upper ends of the frames of the check box 85-3, and the Y coordinate of the lower ends of the frames, respectively. , Y21, Y22, Y23, Y24, Y25, and Y26.

図8−2(d)は、第4の操作画面例を示した図である。
この第4の操作画面例は、美しい字を書くトレーニングソフトで表示される操作画面である。
この第4の操作画面例では、正しい文字の形を表す手本である文字画像86を予め表示しておく。そして、利用者が電子ペン50でこの文字画像86をなぞった場合に、文字画像86から外れるとペン先を動作させるようにする。これにより、利用者は視覚とペン先の感覚から美しい字の形を体得することができ、従来の視覚からのフィードバックに比べて学習が進む。
FIG. 8B is a diagram illustrating a fourth operation screen example.
The fourth operation screen example is an operation screen displayed by training software for writing beautiful characters.
In the fourth operation screen example, a character image 86 which is a model representing a correct character shape is displayed in advance. When the user traces the character image 86 with the electronic pen 50, the pen tip is operated when the user deviates from the character image 86. As a result, the user can acquire a beautiful character shape from the senses of the sight and the nib, and learning progresses as compared with the feedback from the conventional sight.

尚、図では、文字画像の枠を中心とした領域(枠領域)を網かけで示しているが、この網かけは説明のために施したものであり、実際の操作画面には表示しなくてよい。ここで、枠領域は、操作対象の境界に沿う予め定められた領域の一例である。   In the figure, the area (frame area) centered on the frame of the character image is shown by shading, but this shading is given for explanation and is not displayed on the actual operation screen. It's okay. Here, the frame region is an example of a predetermined region along the boundary of the operation target.

次いで、本実施の形態における位置関係比較部53の動作について説明する。
図9は、位置関係比較部53の動作例を示したフローチャートである。位置関係比較部53は、定期的にこのフローチャートに示す動作を行う。尚、図3では、起動信号発生器54がペン先にパルス状の動作を行わせる起動信号を出力する構成を、図4では、起動信号発生器54がペン先に振動パターンの振動を行わせる起動信号を出力する構成を、それぞれ別個独立の構成として説明したが、この動作例では、起動信号発生器54が、ペン先にパルス状の動作を行わせる起動信号とペン先に振動パターンの振動を行わせる起動信号との両方を出力するものとする。また、図8−1(a)〜(d)の全ての操作画面に対する操作について適用可能な動作例として説明する。
Next, the operation of the positional relationship comparison unit 53 in the present embodiment will be described.
FIG. 9 is a flowchart showing an operation example of the positional relationship comparison unit 53. The positional relationship comparison unit 53 periodically performs the operation shown in this flowchart. In FIG. 3, the start signal generator 54 outputs a start signal that causes the pen tip to perform a pulse-like operation. In FIG. 4, the start signal generator 54 causes the pen tip to vibrate a vibration pattern. The configuration for outputting the start signal has been described as a separate and independent configuration, but in this operation example, the start signal generator 54 causes the pen tip to perform a pulse-like operation and the vibration of the vibration pattern on the pen tip. It is assumed that both the start signal for performing In addition, an operation example applicable to operations on all the operation screens in FIGS.

動作するタイミングが来ると、位置関係比較部53は、まず、電子ペン50のペン先がタブレット40に接触しているかどうかを判定する(ステップ501)。この判定は、例えば、ペン先位置検出部51からの信号に基づいて行う。
その結果、電子ペン50のペン先がタブレット40に接触していないと判定すれば、処理は終了する。電子ペン50のペン先がタブレット40に接触していると判定すれば、位置関係比較部53は、ペン先位置検出部51からペン先位置情報を取得する(ステップ502)と共に、操作対象検出部52から操作対象位置情報を取得する(ステップ503)。ここで、操作対象位置情報は、操作画面に表示される操作対象ごとに、その操作対象が占める領域(以下、「操作対象領域」という)と、その操作対象の枠領域のうちその操作対象の内側にある領域(以下、「内枠領域」という)と、その操作対象の枠領域のうちその操作対象の外側にある領域(以下、「外枠領域」という)とを特定する情報を含む。
When the operation timing comes, the positional relationship comparison unit 53 first determines whether or not the pen tip of the electronic pen 50 is in contact with the tablet 40 (step 501). This determination is performed based on, for example, a signal from the pen tip position detection unit 51.
As a result, if it is determined that the pen tip of the electronic pen 50 is not in contact with the tablet 40, the process ends. If it determines with the pen tip of the electronic pen 50 contacting the tablet 40, the positional relationship comparison part 53 will acquire pen tip position information from the pen tip position detection part 51 (step 502), and operation target detection part Operation target position information is acquired from 52 (step 503). Here, the operation target position information includes, for each operation target displayed on the operation screen, an area occupied by the operation target (hereinafter referred to as “operation target area”) and a frame area of the operation target. It includes information that identifies an inner area (hereinafter referred to as “inner frame area”) and an area outside the operation target (hereinafter referred to as “outer frame area”) of the operation target frame area.

その後、位置関係比較部53は、ステップ502で取得したペン先位置が、ステップ503で取得した操作対象位置情報によって特定される何れかの操作対象の操作対象領域内にあるかどうかを判定する(ステップ504)。
その結果、ペン先位置が何れかの操作対象の操作対象領域内にあると判定されれば、位置関係比較部53は、ペン先が操作対象領域内にあることを示す振動パターンの振動をペン先に行わせるための起動情報を出力する(ステップ505)。但し、動作の定義によっては、起動情報を出力しないこともある。そして、位置関係比較部53は、ステップ502で取得したペン先位置が、ステップ503で取得した操作対象位置情報によって特定される何れかの操作対象の内枠領域内にあるかどうかを判定する(ステップ506)。そして、ペン先位置が何れかの操作対象の内枠領域内にないと判定されれば、処理は終了するが、ペン先位置が何れかの操作対象の内枠領域内にあると判定されれば、位置関係比較部53は、ペン先が内枠領域内にあることを示すパルス状の動作をペン先に行わせるための起動情報を出力する(ステップ507)。但し、動作の定義によっては、起動情報を出力しないこともある。
Thereafter, the positional relationship comparison unit 53 determines whether or not the pen tip position acquired in step 502 is within any of the operation target areas specified by the operation target position information acquired in step 503 ( Step 504).
As a result, if it is determined that the pen tip position is within the operation target area of any one of the operation targets, the positional relationship comparison unit 53 displays the vibration of the vibration pattern indicating that the pen tip is within the operation target area. The activation information to be performed first is output (step 505). However, depending on the operation definition, the activation information may not be output. Then, the positional relationship comparison unit 53 determines whether or not the pen tip position acquired in step 502 is within the inner frame region of any operation target specified by the operation target position information acquired in step 503 ( Step 506). If it is determined that the pen tip position is not within the inner frame region of any operation target, the process ends, but it is determined that the pen tip position is within the inner frame region of any operation target. For example, the positional relationship comparison unit 53 outputs activation information for causing the pen tip to perform a pulse-like operation indicating that the pen tip is in the inner frame region (step 507). However, depending on the operation definition, the activation information may not be output.

一方、ステップ504でペン先位置が何れかの操作対象の操作対象領域内にないと判定されれば、位置関係比較部53は、ステップ502で取得したペン先位置が、ステップ503で取得した操作対象位置情報によって特定される何れかの操作対象の外枠領域内にあるかどうかを判定する(ステップ508)。そして、ペン先位置が何れかの操作対象の外枠領域内にないと判定されれば、処理は終了するが、ペン先位置が何れかの操作対象の外枠領域内にあると判定されれば、位置関係比較部53は、ペン先が外枠領域内にあることを示すパルス状の動作又は振動パターンの振動をペン先に行わせるための起動情報を出力する(ステップ509)。但し、動作の定義によっては、起動情報を出力しないこともある。   On the other hand, if it is determined in step 504 that the pen tip position is not in any of the operation target operation target areas, the positional relationship comparison unit 53 determines that the pen tip position acquired in step 502 is the operation acquired in step 503. It is determined whether it is within the outer frame area of any operation target specified by the target position information (step 508). If it is determined that the pen tip position is not within the outer frame area of any operation target, the process ends, but it is determined that the pen tip position is within the outer frame area of any operation target. For example, the positional relationship comparison unit 53 outputs activation information for causing the pen tip to perform a pulse-like operation or a vibration pattern indicating that the pen tip is in the outer frame region (step 509). However, depending on the operation definition, the activation information may not be output.

ここで、図9のステップ504、ステップ506、ステップ508の位置関係の判定処理について、より詳細に説明する。
図10は、図9のステップ503で取得され、ステップ504、ステップ506、ステップ508の判定処理で用いられる操作対象位置情報の一例である。
図示するように、操作対象位置情報は、操作対象の種別を示す情報と、操作対象領域、内枠領域、外枠領域を特定する情報とを対応付けたものとなっている。
操作対象の種別を示す情報は、例えば、操作対象であるオブジェクトの種類を表す名称(入力欄、チェックボックス等)である。
操作対象領域、内枠領域、外枠領域を特定する情報は、例えば、これらの領域内の点の座標の集合(座標集合)である。
Here, the positional relationship determination processing in step 504, step 506, and step 508 in FIG. 9 will be described in more detail.
FIG. 10 is an example of operation target position information acquired in step 503 in FIG. 9 and used in the determination processing in steps 504, 506, and 508.
As illustrated, the operation target position information associates information indicating the type of the operation target with information specifying the operation target area, the inner frame area, and the outer frame area.
The information indicating the type of operation target is, for example, a name (input field, check box, etc.) indicating the type of object that is the operation target.
The information specifying the operation target area, the inner frame area, and the outer frame area is, for example, a set of coordinates (coordinate set) of points in these areas.

図10−1(a)は、図8−1(a)の操作画面がディスプレイ20に表示されている場合にステップ503で取得される操作対象位置情報の例である。
サイン入力欄81の種別は入力欄であるので、種別を示す情報として「入力欄」が記憶されている。
また、サイン入力欄81の枠の左端のX座標、右端のX座標、上端のY座標、下端のY座標が、それぞれ、X01、X02、Y01、Y02であるので、操作対象領域を示す情報として「{(x,y)|X01<x<X02,Y01<y<Y02}」が記憶されている。更に、サイン入力欄81の内枠領域の内周の左端のX座標、右端のX座標、上端のY座標、下端のY座標が、それぞれ、X03、X04、Y03、Y04であるので、内枠領域を示す情報として「{(x,y)|X01<x<X02,Y01<y<Y02}」から「{(x,y)|X03<x<X04,Y03<y<Y04}」を除いた座標集合が記憶されている。更にまた、サイン入力欄81の外枠領域の外周の左端のX座標、右端のX座標、上端のY座標、下端のY座標が、それぞれ、X05、X06、Y05、Y06であるので、外枠領域を示す情報として「{(x,y)|X05<x<X06,Y05<y<Y06}」から「{(x,y)|X01<x<X02,Y01<y<Y02}」を除いた座標集合が記憶されている。
FIG. 10A is an example of the operation target position information acquired in step 503 when the operation screen of FIG. 8-1A is displayed on the display 20.
Since the type of the sign input field 81 is an input field, “input field” is stored as information indicating the type.
Further, since the X coordinate at the left end, the X coordinate at the right end, the Y coordinate at the upper end, and the Y coordinate at the lower end of the frame of the sign input field 81 are X01, X02, Y01, and Y02, respectively, the information indicates the operation target area. “{(X, y) | X01 <x <X02, Y01 <y <Y02}” is stored. Further, since the X coordinate at the left end, the X coordinate at the right end, the Y coordinate at the upper end, and the Y coordinate at the lower end of the inner frame area of the sign input field 81 are X03, X04, Y03, and Y04, respectively, “{(X, y) | X03 <x <X04, Y03 <y <Y04}” is excluded from “{(x, y) | X01 <x <X02, Y01 <y <Y02}” as information indicating the area. A set of coordinates is stored. Furthermore, since the X coordinate at the left end, the X coordinate at the right end, the Y coordinate at the upper end, and the Y coordinate at the lower end of the outer frame area of the sign input field 81 are X05, X06, Y05, and Y06, respectively, “{(X, y) | X01 <x <X02, Y01 <y <Y02}” is excluded from “{(x, y) | X05 <x <X06, Y05 <y <Y06}” as information indicating the area. A set of coordinates is stored.

図9のステップ504、ステップ506、ステップ508において、位置関係比較部53は、ステップ502で取得されたペン先位置情報が示す座標がこの操作対象位置情報における何れかの座標集合に含まれるかどうかを調べることにより、ペン先がサイン入力欄81の操作対象領域内にあるか内枠領域内にあるか外枠領域内にあるかを判定する。   In step 504, step 506, and step 508 in FIG. 9, the positional relationship comparison unit 53 determines whether the coordinates indicated by the pen tip position information acquired in step 502 are included in any coordinate set in the operation target position information. To determine whether the pen tip is in the operation target area, the inner frame area, or the outer frame area of the sign input field 81.

図10−1(b)は、図8−1(b)の操作画面がディスプレイ20に表示されている場合にステップ503で取得される操作対象位置情報の例である。
フリーハンド入力欄82の種別は入力欄であるので、種別を示す情報として「入力欄」が記憶されている。中心線83,84については、種別を表す情報として「中心線」が記憶されている。
フリーハンド入力欄82については、図8−1(a)のサイン入力欄81と同様に、操作対象領域、内枠領域、外枠領域を示す情報が記憶されている。
また、中心線83については、そのX座標、その上端のY座標、その下端のY座標が、それぞれ、X17、Y11、Y12であるので、操作対象領域を示す情報として「{(x,y)|x=X17,Y11<y<Y12}」が記憶されている。更に、中心線83の内枠領域は存在しないので、内枠領域を示す情報として「φ」が記憶されている。更にまた、中心線83の外枠領域の左端のX座標、右端のX座標、上端のY座標、下端のY座標が、それぞれ、X18、X19、Y11、Y12であるので、外枠領域を示す情報として「{(x,y)|X18<x<X17,Y11<y<Y12}」と「{(x,y)|X17<x<X19,Y11<y<Y12}」とを合わせた座標集合が記憶されている。
中心線84についても、これと同様に、操作対象領域、内枠領域、外枠領域を示す情報が記憶されている。
10B is an example of the operation target position information acquired in step 503 when the operation screen of FIG. 8-1B is displayed on the display 20.
Since the type of the freehand input field 82 is an input field, “input field” is stored as information indicating the type. For the center lines 83 and 84, “center line” is stored as information indicating the type.
As for the freehand input field 82, information indicating the operation target area, the inner frame area, and the outer frame area is stored as in the sign input field 81 of FIG.
For the center line 83, the X coordinate, the Y coordinate at the upper end, and the Y coordinate at the lower end are X17, Y11, and Y12, respectively. Therefore, “{(x, y)” is used as information indicating the operation target area. | X = X17, Y11 <y <Y12} "is stored. Further, since there is no inner frame area of the center line 83, “φ” is stored as information indicating the inner frame area. Furthermore, since the X coordinate at the left end, the X coordinate at the right end, the Y coordinate at the upper end, and the Y coordinate at the lower end of the outer frame area of the center line 83 are X18, X19, Y11, and Y12, respectively, this indicates the outer frame area. Coordinates of “{(x, y) | X18 <x <X17, Y11 <y <Y12}” and “{(x, y) | X17 <x <X19, Y11 <y <Y12}” as information A set is stored.
Similarly, the center line 84 stores information indicating the operation target area, the inner frame area, and the outer frame area.

図9のステップ504、ステップ506、ステップ508において、位置関係比較部53は、ステップ502で取得されたペン先位置情報が示す座標がこの操作対象位置情報における何れかの座標集合に含まれるかどうかを調べることにより、ペン先がフリーハンド入力欄82の操作対象領域内にあるか内枠領域内にあるか外枠領域内にあるか、或いは、中心線83,84の操作対象領域上にあるかこれらの外枠領域内にあるかを判定する。   In step 504, step 506, and step 508 in FIG. 9, the positional relationship comparison unit 53 determines whether the coordinates indicated by the pen tip position information acquired in step 502 are included in any coordinate set in the operation target position information. The pen tip is in the operation target area, the inner frame area or the outer frame area of the freehand input field 82, or is in the operation target area of the center lines 83 and 84. Or whether it is within these outer frame regions.

図10−2(c)は、図8−2(c)の操作画面がディスプレイ20に表示されている場合にステップ503で取得される操作対象位置情報の例である。
チェックボックス85−1〜85−5について、種別を表す情報として「チェックボックス」が記憶されている。
また、図8−1(a)のサイン入力欄81や同図(b)のフリーハンド入力欄82と同様に、操作対象領域を示す情報が記憶されている。但し、チェックボックス85−1〜85−5の内枠領域や外枠領域は存在しないので、内枠領域を示す情報、外枠領域を示す情報として「φ」が記憶されている。
FIG. 10-2 (c) is an example of the operation target position information acquired in step 503 when the operation screen of FIG. 8-2 (c) is displayed on the display 20.
For the check boxes 85-1 to 85-5, “check box” is stored as information indicating the type.
Further, as in the sign input field 81 in FIG. 8A and the freehand input field 82 in FIG. 8B, information indicating the operation target area is stored. However, since there is no inner frame area or outer frame area of the check boxes 85-1 to 85-5, “φ” is stored as information indicating the inner frame area and information indicating the outer frame area.

図9のステップ504、ステップ506、ステップ508において、位置関係比較部53は、ステップ502で取得されたペン先位置情報が示す座標がこの操作対象位置情報における何れかの座標集合に含まれるかどうかを調べることにより、ペン先がチェックボックス85−1〜85−5の操作対象領域内にあるかどうかを判定する。   In step 504, step 506, and step 508 in FIG. 9, the positional relationship comparison unit 53 determines whether the coordinates indicated by the pen tip position information acquired in step 502 are included in any coordinate set in the operation target position information. Is checked to determine whether the pen tip is within the operation target area of the check boxes 85-1 to 85-5.

図10−2(d)は、図8−2(d)の操作画面がディスプレイ20に表示されている場合にステップ503で取得される操作対象位置情報の例である。
文字画像86について、種別を表す情報として「文字画像」が記憶されている。
また、文字画像86を点の集合と捉え、操作対象領域を示す情報として「{(X31,Y31),(X32,Y32),(X33,Y33),…,(X3n,Y3n)}」が記憶されている。更に、文字画像86の内枠領域は存在しないので、内枠領域を示す情報として「φ」が記憶されている。更にまた、文字画像86の外枠領域も点の集合と捉え、外枠領域を示す情報として「{(X41,Y41),(X42,Y42),(X43,Y43),…,(X4k,Y4k)}」が記憶されている。
10D is an example of the operation target position information acquired in step 503 when the operation screen of FIG. 8D is displayed on the display 20.
For the character image 86, “character image” is stored as information indicating the type.
Further, the character image 86 is regarded as a set of points, and “{(X31, Y31), (X32, Y32), (X33, Y33),..., (X3n, Y3n)}” is stored as information indicating the operation target area. Has been. Furthermore, since there is no inner frame area of the character image 86, “φ” is stored as information indicating the inner frame area. Further, the outer frame area of the character image 86 is also regarded as a set of points, and information “{(X41, Y41), (X42, Y42), (X43, Y43),..., (X4k, Y4k) is indicated as the outer frame area. )} ”Is stored.

図9のステップ504、ステップ506、ステップ508において、位置関係比較部53は、ステップ502で取得されたペン先位置情報が示す座標がこの操作対象位置情報における何れかの座標集合に含まれるかどうかを調べることにより、ペン先が文字画像86の操作対象領域内にあるか外枠領域内にあるかを判定する。   In step 504, step 506, and step 508 in FIG. 9, the positional relationship comparison unit 53 determines whether the coordinates indicated by the pen tip position information acquired in step 502 are included in any coordinate set in the operation target position information. Is checked to determine whether the pen tip is in the operation target area or the outer frame area of the character image 86.

次いで、図9のステップ505、ステップ507、ステップ509の起動情報の決定処理について、より詳細に説明する。
図11は、図9のステップ504、ステップ506、ステップ508の決定処理で用いられる動作定義情報の一例である。この動作定義情報は、位置関係比較部53が参照可能なメモリに予め記憶しておくとよい。
図示するように、動作定義情報は、操作対象の種別を示す情報と、操作対象領域における動作を示す情報(図では単に「操作対象領域」と表記)と、内枠領域における動作を示す情報(図では単に「内枠領域」と表記)と、外枠領域における動作を示す情報(図では単に「外枠領域」と表記)とを対応付けたものとなっている。
操作対象の種別を示す情報は、例えば、操作対象であるオブジェクトの種類を表す名称(入力欄、チェックボックス等)であり、図10−1(a)〜図10−2(d)の操作対象の種別を示す情報に相当する情報である。
操作対象領域、内枠領域、外枠領域における動作を示す情報は、ペン先がこれらの領域内にあるときにペン先に行わせる動作(パルス状の動作、振動パターンによる振動)を示す情報である。尚、図中、「近」はペン先が操作対象の枠に近づいているときの動作を示し、「遠」はペン先が操作対象の枠から遠ざかっている時の動作を示す。
Next, the activation information determination process in step 505, step 507, and step 509 in FIG. 9 will be described in more detail.
FIG. 11 is an example of the operation definition information used in the determination processing in step 504, step 506, and step 508 in FIG. This motion definition information may be stored in advance in a memory that can be referred to by the positional relationship comparison unit 53.
As shown in the figure, the operation definition information includes information indicating the type of the operation target, information indicating the operation in the operation target area (simply referred to as “operation target area” in the figure), and information indicating the operation in the inner frame area ( In the figure, it is simply associated with “inner frame area”) and information indicating the operation in the outer frame area (simply indicated as “outer frame area” in the figure).
The information indicating the type of the operation target is, for example, a name (input field, check box, etc.) indicating the type of the object that is the operation target, and the operation target in FIGS. 10-1 (a) to 10-2 (d). This is information corresponding to the information indicating the type.
The information indicating the operation in the operation target area, the inner frame area, and the outer frame area is information indicating an operation (pulse-like operation, vibration by a vibration pattern) to be performed by the pen tip when the pen tip is in these areas. is there. In the drawing, “near” indicates an operation when the pen tip is approaching the operation target frame, and “far” indicates an operation when the pen tip is moved away from the operation target frame.

例えば、図8−1(a)の操作画面がディスプレイ20に表示されている場合を考える。
まず、図9のステップ504でペン先がサイン入力欄81内にあると判定されると、位置関係比較部53は、図11の動作定義情報を参照し、種別「入力欄」に対応する操作対象領域における動作として「振動パターンA」を特定する。そこで、ステップ505において、位置関係比較部53は、振動パターンAの振動をペン先に行わせるための起動情報を出力する。
また、図9のステップ506でペン先がサイン入力欄81の内枠領域内にあると判定されると、位置関係比較部53は、図11の動作定義情報を参照し、種別「入力欄」に対応する内枠領域における動作として「近:パルスA、遠:パルスB」を特定する。そこで、ステップ507において、位置関係比較部53は、ペン先がサイン入力欄81の枠に近づいていれば、パルスAの動作をペン先に行わせるための起動情報を出力し、ペン先がサイン入力欄81の枠から遠ざかっていれば、パルスBの動作をペン先に行わせるための起動情報を出力する。
一方、図9のステップ508でペン先がサイン入力欄81の外枠領域内にあると判定されると、位置関係比較部53は、図11の動作定義情報を参照し、種別「入力欄」に対応する外枠領域における動作として「振動パターンB」を特定する。そこで、ステップ509において、位置関係比較部53は、振動パターンBの振動をペン先に行わせるための起動情報を出力する。
For example, let us consider a case where the operation screen of FIG.
First, when it is determined in step 504 in FIG. 9 that the pen tip is in the sign input field 81, the positional relationship comparison unit 53 refers to the operation definition information in FIG. 11 and performs an operation corresponding to the type “input field”. “Vibration pattern A” is specified as the operation in the target region. Therefore, in step 505, the positional relationship comparison unit 53 outputs activation information for causing the pen tip to vibrate the vibration pattern A.
If it is determined in step 506 in FIG. 9 that the pen tip is within the inner frame area of the sign input field 81, the positional relationship comparison unit 53 refers to the action definition information in FIG. “Near: Pulse A, Far: Pulse B” is specified as the operation in the inner frame region corresponding to. Therefore, in step 507, if the pen tip is approaching the frame of the sign input field 81, the positional relationship comparing unit 53 outputs activation information for causing the pen tip to perform the operation of the pulse A, and the pen tip is a sign. If it is away from the frame of the input field 81, activation information for causing the pen tip to perform the operation of the pulse B is output.
On the other hand, if it is determined in step 508 of FIG. 9 that the pen tip is within the outer frame area of the sign input field 81, the positional relationship comparison unit 53 refers to the action definition information of FIG. The “vibration pattern B” is specified as the operation in the outer frame region corresponding to. Therefore, in step 509, the positional relationship comparison unit 53 outputs activation information for causing the pen tip to vibrate the vibration pattern B.

また、図8−1(b)の操作画面がディスプレイ20に表示されている場合を考える。この場合、フリーハンド入力欄82については、上記サイン入力欄81と同様であるので、説明を省略し、中心線83,84について説明する。
まず、図9のステップ504でペン先が中心線83,84上にあると判定された場合、位置関係比較部53は、図11の動作定義情報を参照するが、種別「中心線」に対応する操作対象領域における動作は特定されない。そこで、ステップ505において、位置関係比較部53は、ペン先に動作を行わせるための起動情報を出力しない。
また、図9のステップ506でペン先が中心線83,84の内枠領域内にあると判定されることはないので、ステップ507において、位置関係比較部53は、ペン先に動作を行わせるための起動情報を出力しない。
一方、図9のステップ508でペン先が中心線83,84の外枠領域内にあると判定されると、位置関係比較部53は、図11の動作定義情報を参照し、種別「中心線」に対応する外枠領域における動作として「近:パルスA、遠:パルスB」を特定する。そこで、ステップ509において、位置関係比較部53は、ペン先が中心線83,84に近づいていれば、パルスAの動作をペン先に行わせるための起動情報を出力し、ペン先が中心線83,84から遠ざかっていれば、パルスBの動作をペン先に行わせるための起動情報を出力する。
Further, consider a case where the operation screen of FIG. In this case, since the freehand input field 82 is the same as the sign input field 81, the description thereof will be omitted, and the center lines 83 and 84 will be described.
First, when it is determined in step 504 in FIG. 9 that the pen tip is on the center lines 83 and 84, the positional relationship comparison unit 53 refers to the action definition information in FIG. 11, but corresponds to the type “center line”. The operation in the operation target area to be performed is not specified. Therefore, in step 505, the positional relationship comparison unit 53 does not output activation information for causing the pen tip to perform an operation.
Further, since it is not determined in step 506 in FIG. 9 that the pen tip is within the inner frame area of the center lines 83 and 84, in step 507, the positional relationship comparison unit 53 causes the pen tip to perform an operation. Startup information is not output.
On the other hand, if it is determined in step 508 of FIG. 9 that the pen tip is within the outer frame area of the center lines 83 and 84, the positional relationship comparison unit 53 refers to the action definition information of FIG. "Near: Pulse A, Far: Pulse B" is specified as the operation in the outer frame region corresponding to "". Therefore, in step 509, if the pen tip approaches the center lines 83 and 84, the positional relationship comparing unit 53 outputs activation information for causing the pen tip to perform the operation of the pulse A, and the pen tip is the center line. If it is away from 83 and 84, activation information for causing the pen tip to perform the operation of pulse B is output.

更に、図8−2(c)の操作画面がディスプレイ20に表示されている場合を考える。
まず、図9のステップ504でペン先がチェックボックス85−1内にあると判定されると、位置関係比較部53は、図11の動作定義情報を参照し、種別「チェックボックス」に対応する操作対象領域における動作として「振動パターンA」を特定する。そこで、ステップ505において、位置関係比較部53は、振動パターンAの振動をペン先に行わせるための起動情報を出力する。
また、図9のステップ506でペン先がチェックボックス85−1の内枠領域内にあると判定されることはないので、ステップ507において、位置関係比較部53は、ペン先に動作を行わせるための起動情報を出力しない。
一方、図9のステップ508でペン先がチェックボックス85−1の外枠領域内にあると判定されることもないので、ステップ509において、位置関係比較部53は、ペン先に動作を行わせるための起動情報を出力しない。
Further, consider a case where the operation screen of FIG.
First, when it is determined in step 504 in FIG. 9 that the pen tip is in the check box 85-1, the positional relationship comparison unit 53 refers to the action definition information in FIG. 11 and corresponds to the type “check box”. “Vibration pattern A” is specified as the operation in the operation target area. Therefore, in step 505, the positional relationship comparison unit 53 outputs activation information for causing the pen tip to vibrate the vibration pattern A.
Further, since it is not determined in step 506 in FIG. 9 that the pen tip is within the inner frame area of the check box 85-1, in step 507, the positional relationship comparison unit 53 causes the pen tip to perform an operation. Startup information is not output.
On the other hand, since it is not determined in step 508 in FIG. 9 that the pen tip is within the outer frame area of the check box 85-1, the positional relationship comparison unit 53 causes the pen tip to perform an operation in step 509. Startup information is not output.

更にまた、図8−2(d)の操作画面がディスプレイ20に表示されている場合を考える。
まず、図9のステップ504でペン先が文字画像86内にあると判定された場合、位置関係比較部53は、図11の動作定義情報を参照するが、種別「文字画像」に対応する操作対象領域における動作は特定されない。そこで、ステップ505において、位置関係比較部53は、ペン先に動作を行わせるための起動情報を出力しない。
また、図9のステップ506でペン先が文字画像86の内枠領域内にあると判定されることはないので、ステップ507において、位置関係比較部53は、ペン先に動作を行わせるための起動情報を出力しない。
一方、図9のステップ508でペン先が文字画像86の外枠領域内にあると判定されると、位置関係比較部53は、図11の動作定義情報を参照し、種別「文字画像」に対応する外枠領域における動作として「振動パターンB」を特定する。そこで、ステップ509において、位置関係比較部53は、振動パターンBの振動をペン先に行わせるための起動情報を出力する。
以上により、本実施の形態の説明を終了する。
Furthermore, consider the case where the operation screen of FIG.
First, when it is determined in step 504 in FIG. 9 that the pen tip is in the character image 86, the positional relationship comparison unit 53 refers to the operation definition information in FIG. 11, but the operation corresponding to the type “character image”. The action in the target area is not specified. Therefore, in step 505, the positional relationship comparison unit 53 does not output activation information for causing the pen tip to perform an operation.
Further, since it is not determined in step 506 in FIG. 9 that the pen tip is within the inner frame area of the character image 86, in step 507, the positional relationship comparison unit 53 causes the pen tip to perform an operation. Does not output startup information.
On the other hand, if it is determined in step 508 of FIG. 9 that the pen tip is within the outer frame area of the character image 86, the positional relationship comparison unit 53 refers to the action definition information of FIG. “Vibration pattern B” is specified as the operation in the corresponding outer frame region. Therefore, in step 509, the positional relationship comparison unit 53 outputs activation information for causing the pen tip to vibrate the vibration pattern B.
This is the end of the description of the present embodiment.

ところで、本実施の形態では、電子ペン50がそのペン先の動作の制御を行うようにしたが、電子ペン50以外の装置がペン先の動作の制御を行うようにしてもよい。例えば、図1に示したPC10が、タブレット40からペン先位置情報を取得してペン先の動作の制御を行ってもよい。
また、ここまでの説明では、電子ペン50の指示位置をタブレット40が検出することを前提としたが、電子ペン50の指示位置を電子ペン50が検出するようにしてもよい。例えば、タブレット40上に設けられた座標情報を読み取る機構や、タブレット40上の座標を算出するための信号を受信する機構を電子ペン50に設ければ、電子ペン50が指示位置を検出することは可能となる。
尚、本実施の形態を実現するプログラムは、通信手段により提供することはもちろん、CD−ROM等の記録媒体に格納して提供することも可能である。
In the present embodiment, the electronic pen 50 controls the operation of the pen tip, but a device other than the electronic pen 50 may control the operation of the pen tip. For example, the PC 10 illustrated in FIG. 1 may acquire pen tip position information from the tablet 40 and control the operation of the pen tip.
In the above description, it is assumed that the tablet 40 detects the designated position of the electronic pen 50. However, the electronic pen 50 may detect the designated position of the electronic pen 50. For example, if the electronic pen 50 is provided with a mechanism for reading coordinate information provided on the tablet 40 or a mechanism for receiving a signal for calculating coordinates on the tablet 40, the electronic pen 50 detects the indicated position. Is possible.
The program for realizing the present embodiment can be provided not only by communication means but also by storing it in a recording medium such as a CD-ROM.

10…PC、20…ディスプレイ、30…キーボード、40…タブレット、50…電子ペン、51…ペン先位置検出部、52…操作対象検出部、53…位置関係比較部、54…起動信号発生器、55…ペン先可動機構 DESCRIPTION OF SYMBOLS 10 ... PC, 20 ... Display, 30 ... Keyboard, 40 ... Tablet, 50 ... Electronic pen, 51 ... Pen tip position detection part, 52 ... Operation object detection part, 53 ... Position relationship comparison part, 54 ... Activation signal generator, 55 ... nib movable mechanism

Claims (11)

位置指示具の指示部材で指示された板状体上の位置を示す第1の位置情報を取得する第1の位置情報取得手段と、
前記位置指示具を用いて前記板状体を指示することにより操作される画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する第2の位置情報取得手段と、
前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置と、前記第2の位置情報取得手段により取得された前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の前記位置指示具の本体に対する相対動作を制御する制御手段と
を備え
前記制御手段は、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界に近付く方向へ移動していれば、当該指示部材が前記板状体の方向へ前記相対動作を行うように制御することを特徴とする位置指示具制御装置。
First position information acquisition means for acquiring first position information indicating the position on the plate-shaped body instructed by the indicating member of the position indicating tool;
Second position information acquisition means for acquiring second position information indicating the position on the screen of the operation target on the screen operated by instructing the plate-like body using the position indicator;
Based on the relationship between the position indicated by the first position information acquired by the first position information acquisition means and the position indicated by the second position information acquired by the second position information acquisition means. Control means for controlling relative movement of the pointing member with respect to the main body of the position pointing tool ,
The control means has a position on the screen corresponding to the position indicated by the first position information acquired by the first position information acquisition means within a predetermined area along the boundary of the operation target. In some cases, if the pointing member moves in a direction approaching the boundary, the pointing member control device controls the pointing member to perform the relative movement in the direction of the plate-like body. .
位置指示具の指示部材で指示された板状体上の位置を示す第1の位置情報を取得する第1の位置情報取得手段と、First position information acquisition means for acquiring first position information indicating the position on the plate-shaped body instructed by the indicating member of the position indicating tool;
前記位置指示具を用いて前記板状体を指示することにより操作される画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する第2の位置情報取得手段と、Second position information acquisition means for acquiring second position information indicating the position on the screen of the operation target on the screen operated by instructing the plate-like body using the position indicator;
前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置と、前記第2の位置情報取得手段により取得された前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の前記位置指示具の本体に対する相対動作を制御する制御手段とBased on the relationship between the position indicated by the first position information acquired by the first position information acquisition means and the position indicated by the second position information acquired by the second position information acquisition means. Control means for controlling relative movement of the pointing member with respect to the body of the position pointing tool;
を備え、With
前記制御手段は、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界から遠ざかる方向へ移動していれば、当該指示部材が前記板状体の方向とは逆の方向へ前記相対動作を行うように制御することを特徴とする位置指示具制御装置。The control means has a position on the screen corresponding to the position indicated by the first position information acquired by the first position information acquisition means within a predetermined area along the boundary of the operation target. In some cases, if the pointing member moves in a direction away from the boundary, the pointing member is controlled to perform the relative movement in a direction opposite to the direction of the plate-like body. Position indicator control device.
前記操作対象は、情報を入力するための入力欄であり、
前記操作対象の境界に沿う予め定められた領域は、前記入力欄の境界に沿う当該入力欄の内側の予め定められた領域であることを特徴とする請求項1又は2に記載の位置指示具制御装置。
The operation target is an input field for inputting information,
The position indicating tool according to claim 1 or 2 , wherein the predetermined area along the boundary of the operation target is a predetermined area inside the input field along the boundary of the input field. Control device.
前記制御手段は、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、複数の振動態様のうち当該領域に対して予め定められた振動態様で前記指示部材が前記相対動作を行うように制御することを特徴とする請求項1乃至3の何れかに記載の位置指示具制御装置。   The control means has a position on the screen corresponding to the position indicated by the first position information acquired by the first position information acquisition means within a predetermined area along the boundary of the operation target. 4. The control device according to claim 1, wherein, in some cases, the pointing member is controlled to perform the relative movement in a vibration mode predetermined for the region among a plurality of vibration modes. 5. Position indicator control device. 前記板状体上での前記指示部材の移動速度を示す速度情報を取得する速度情報取得手段を更に備え
前記制御手段は、前記速度情報取得手段により取得された前記速度情報が示す移動速度に応じて、前記相対動作を制御することを特徴とする請求項1乃至4の何れかに記載の位置指示具制御装置。
Further comprising a velocity information acquiring means for acquiring the speed information indicating the moving speed of the pointing member in the plate-like body on,
5. The position pointing tool according to claim 1 , wherein the control unit controls the relative movement in accordance with a moving speed indicated by the speed information acquired by the speed information acquiring unit. Control device.
前記制御手段は、前記速度情報取得手段により取得された前記速度情報が第1の速度を示す場合に、第1の周期の振動態様で前記指示部材が前記相対動作を行うように制御し、前記速度情報取得手段により取得された前記速度情報が当該第1の速度よりも速い第2の速度を示す場合に、当該第1の周期よりも短い第2の周期の振動態様で前記指示部材が前記相対動作を行うように制御することを特徴とする請求項5に記載の位置指示具制御装置。   The control means controls the instruction member to perform the relative operation in a vibration mode of a first cycle when the speed information acquired by the speed information acquisition means indicates a first speed, When the speed information acquired by the speed information acquisition means indicates a second speed that is faster than the first speed, the indicating member is in a vibration mode having a second period shorter than the first period. 6. The position pointing device control apparatus according to claim 5, wherein control is performed so as to perform a relative motion. 前記制御手段は、複数の振動態様のうち、指定された条件に対して予め定められた振動態様で前記指示部材が前記相対動作を行うように制御することを特徴とする請求項5又は6に記載の位置指示具制御装置。   7. The control unit according to claim 5, wherein the control unit performs control so that the pointing member performs the relative movement in a vibration mode predetermined for a specified condition among a plurality of vibration modes. 8. The position pointing tool control device according to the description. 板状体を指示することにより画面上の操作対象を操作するために用いられる指示部材と、
前記指示部材で指示された板状体上の位置を示す第1の位置情報を取得する第1の位置情報取得手段と、
前記画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する第2の位置情報取得手段と、
前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置と、前記第2の位置情報取得手段により取得された前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の自身に対する相対動作を制御する制御手段と
を備え
前記制御手段は、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界に近付く方向へ移動していれば、当該指示部材が前記板状体の方向へ前記相対動作を行うように制御することを特徴とする位置指示装置。
An instruction member used for operating an operation target on the screen by indicating a plate-like body;
First position information acquisition means for acquiring first position information indicating a position on the plate-shaped body instructed by the indicating member;
Second position information acquisition means for acquiring second position information indicating the position on the screen of the operation target on the screen;
Based on the relationship between the position indicated by the first position information acquired by the first position information acquisition means and the position indicated by the second position information acquired by the second position information acquisition means. Control means for controlling relative movement of the indicating member with respect to itself ,
The control means has a position on the screen corresponding to the position indicated by the first position information acquired by the first position information acquisition means within a predetermined area along the boundary of the operation target. In some cases, if the pointing member moves in a direction approaching the boundary, the pointing member controls the relative movement in the direction of the plate-like body .
板状体を指示することにより画面上の操作対象を操作するために用いられる指示部材と、An instruction member used for operating an operation target on the screen by indicating a plate-like body;
前記指示部材で指示された板状体上の位置を示す第1の位置情報を取得する第1の位置情報取得手段と、First position information acquisition means for acquiring first position information indicating a position on the plate-shaped body instructed by the indicating member;
前記画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する第2の位置情報取得手段と、Second position information acquisition means for acquiring second position information indicating the position on the screen of the operation target on the screen;
前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置と、前記第2の位置情報取得手段により取得された前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の自身に対する相対動作を制御する制御手段とBased on the relationship between the position indicated by the first position information acquired by the first position information acquisition means and the position indicated by the second position information acquired by the second position information acquisition means. Control means for controlling relative movement of the indicating member with respect to itself;
を備え、With
前記制御手段は、前記第1の位置情報取得手段により取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界から遠ざかる方向へ移動していれば、当該指示部材が前記板状体の方向とは逆の方向へ前記相対動作を行うように制御することを特徴とする位置指示装置。The control means has a position on the screen corresponding to the position indicated by the first position information acquired by the first position information acquisition means within a predetermined area along the boundary of the operation target. In some cases, if the pointing member moves in a direction away from the boundary, the pointing member is controlled to perform the relative movement in a direction opposite to the direction of the plate-like body. Position pointing device.
コンピュータに、
位置指示具の指示部材で指示された板状体上の位置を示す第1の位置情報を取得する機能と、
前記位置指示具を用いて前記板状体を指示することにより操作される画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する機能と、
前記第1の位置情報が示す位置と、前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の前記位置指示具の本体に対する相対動作を制御する機能と
を実現させ
前記制御する機能は、取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界に近付く方向へ移動していれば、当該指示部材が前記板状体の方向へ前記相対動作を行うように制御するプログラム。
On the computer,
A function of acquiring first position information indicating a position on a plate-shaped body instructed by an indicating member of the position indicating tool;
A function of acquiring second position information indicating the position on the screen of the operation target on the screen operated by instructing the plate-like body using the position indicating tool;
Based on the relationship between the position indicated by the first position information and the position indicated by the second position information, the function of controlling the relative movement of the pointing member with respect to the body of the position pointing tool is realized .
The control function is such that when the position on the screen corresponding to the position indicated by the acquired first position information is within a predetermined region along the boundary of the operation target, the pointing member A program for controlling the pointing member to perform the relative movement in the direction of the plate-like body if moving in a direction approaching the boundary .
コンピュータに、On the computer,
位置指示具の指示部材で指示された板状体上の位置を示す第1の位置情報を取得する機能と、A function of acquiring first position information indicating a position on a plate-shaped body instructed by an indicating member of the position indicating tool;
前記位置指示具を用いて前記板状体を指示することにより操作される画面上の操作対象の当該画面上の位置を示す第2の位置情報を取得する機能と、A function of acquiring second position information indicating the position on the screen of the operation target on the screen operated by instructing the plate-like body using the position indicating tool;
前記第1の位置情報が示す位置と、前記第2の位置情報が示す位置との関係に基づいて、前記指示部材の前記位置指示具の本体に対する相対動作を制御する機能とA function of controlling the relative movement of the pointing member with respect to the body of the position pointing tool based on the relationship between the position indicated by the first position information and the position indicated by the second position information;
を実現させ、Realized,
前記制御する機能は、取得された前記第1の位置情報が示す位置に対応する前記画面上の位置が、前記操作対象の境界に沿う予め定められた領域内にある場合に、前記指示部材が当該境界から遠ざかる方向へ移動していれば、当該指示部材が前記板状体の方向とは逆の方向へ前記相対動作を行うように制御するプログラム。The control function is such that when the position on the screen corresponding to the position indicated by the acquired first position information is within a predetermined region along the boundary of the operation target, the pointing member A program for controlling the pointing member to perform the relative movement in a direction opposite to the direction of the plate-like body if moving in a direction away from the boundary.
JP2009151320A 2009-06-25 2009-06-25 POSITION INDICATOR CONTROL DEVICE, POSITION INDICATOR, AND PROGRAM Active JP5369933B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009151320A JP5369933B2 (en) 2009-06-25 2009-06-25 POSITION INDICATOR CONTROL DEVICE, POSITION INDICATOR, AND PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009151320A JP5369933B2 (en) 2009-06-25 2009-06-25 POSITION INDICATOR CONTROL DEVICE, POSITION INDICATOR, AND PROGRAM

Publications (2)

Publication Number Publication Date
JP2011008532A JP2011008532A (en) 2011-01-13
JP5369933B2 true JP5369933B2 (en) 2013-12-18

Family

ID=43565110

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009151320A Active JP5369933B2 (en) 2009-06-25 2009-06-25 POSITION INDICATOR CONTROL DEVICE, POSITION INDICATOR, AND PROGRAM

Country Status (1)

Country Link
JP (1) JP5369933B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9196134B2 (en) 2012-10-31 2015-11-24 Immersion Corporation Method and apparatus for simulating surface features on a user interface with haptic effects
KR102161057B1 (en) * 2013-11-05 2020-10-05 삼성전자주식회사 Method of applying haptic function to elelctronic frindle and electronic frindle, electronic device and electronic writing system for performing the same.
JP2015114836A (en) * 2013-12-11 2015-06-22 キヤノン株式会社 Image processing device, tactile control method, and program
JP6565703B2 (en) 2016-01-20 2019-08-28 コニカミノルタ株式会社 Operation terminal and image processing apparatus to which it is removable
JP2020177587A (en) * 2019-04-22 2020-10-29 ソニー株式会社 Information processing device, information processing method, and program
JP2022012375A (en) * 2020-07-01 2022-01-17 株式会社東海理化電機製作所 Tactile presentation device, tactile presentation system, control device, and computer program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3124886B2 (en) * 1994-03-31 2001-01-15 シャープ株式会社 Light pen
JP2000200140A (en) * 1999-01-06 2000-07-18 Nippon Telegr & Teleph Corp <Ntt> Tactile force presentation method and tactile force pen tablet
JP4423795B2 (en) * 2001-02-26 2010-03-03 日本電気株式会社 Pen-type input device

Also Published As

Publication number Publication date
JP2011008532A (en) 2011-01-13

Similar Documents

Publication Publication Date Title
JP5369933B2 (en) POSITION INDICATOR CONTROL DEVICE, POSITION INDICATOR, AND PROGRAM
US10120446B2 (en) Haptic input device
US5397865A (en) Digitizing tablet with display and plot capability, and methods of training a user
EP2564291B1 (en) Active vibrations
CN103460164B (en) Tactile sense presentation device and method for driving tactile sense presentation device
US9582933B1 (en) Interacting with a model via a three-dimensional (3D) spatial environment
WO2018053357A1 (en) Touch sensitive keyboard
US20060189385A1 (en) Game program and game device using touch panel
Withana et al. ImpAct: Immersive haptic stylus to enable direct touch and manipulation for surface computing
KR20170096060A (en) Systems and methods for providing features in a friction display
JP6237769B2 (en) Information processing apparatus, information processing method, and program
US9213425B1 (en) Method and apparatus for interacting with electronic display board
JP2000029614A (en) Method and device for image processing
Fellion et al. Flexstylus: Leveraging bend input for pen interaction
Romat et al. Flashpen: A high-fidelity and high-precision multi-surface pen for virtual reality
JPH03171321A (en) Input/output device
EP1668566B1 (en) Spatial chirographic sign reader
JP6239694B1 (en) Image processing apparatus, image processing method, and program
JP3802483B2 (en) Calligraphy learning support system, computer, program, and recording medium
JP2010055322A (en) Handwriting input system
JP2010526367A (en) Device for processing input data
JP3722992B2 (en) Object contact feeling simulation device
JP2013120560A (en) Information processing system and information processing method
Guerrero et al. HyperBrush: Exploring the Influence of Flexural Stiffness on the Performance and Preference for Bendable Stylus Interfaces
WO2015042444A1 (en) Method for controlling a control region of a computerized device from a touchpad

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130403

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130902

R150 Certificate of patent or registration of utility model

Ref document number: 5369933

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350