JP2014016943A - Information processor, display method, and program - Google Patents
Information processor, display method, and program Download PDFInfo
- Publication number
- JP2014016943A JP2014016943A JP2012155677A JP2012155677A JP2014016943A JP 2014016943 A JP2014016943 A JP 2014016943A JP 2012155677 A JP2012155677 A JP 2012155677A JP 2012155677 A JP2012155677 A JP 2012155677A JP 2014016943 A JP2014016943 A JP 2014016943A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- input
- handwritten
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、情報処理装置、表示方法、およびプログラムに関し、特にユーザが手書き入力した情報を表示する情報処理装置、表示方法、およびプログラムに関する。 The present invention relates to an information processing device, a display method, and a program, and more particularly, to an information processing device, a display method, and a program that display information handwritten by a user.
近年、ユーザが手書き入力可能なタッチパネルなどの表示デバイスを含む情報処理装置が広く流通されている。ユーザが指やスタイラスペンなどにより、該表示デバイスに対して文字などを入力(記述)すると、該表示デバイスは、該入力された位置に該入力された文字などを表示する。 In recent years, information processing apparatuses including a display device such as a touch panel on which a user can input by handwriting have been widely distributed. When a user inputs (describes) characters or the like to the display device with a finger or a stylus pen, the display device displays the input characters or the like at the input position.
例えば、特開2010−287032号公報(特許文献1)は、「ユーザが右利きか左利きかを判定し、該判定結果に基づいて、画面部品の表示位置を決定する」技術を開示している。 For example, Japanese Patent Laying-Open No. 2010-287032 (Patent Document 1) discloses a technique of “determining whether a user is right-handed or left-handed and determining a display position of a screen component based on the determination result”. .
上記技術では、例えば、左利きのユーザがタッチパネルに対して、日本語や英語を手書き入力すると、一般的に右方向に該日本語や英語を手書き入力する。そうすると、スタイラスペンを保持するユーザの手が手書き入力した文字を覆うために、ユーザは手書き入力した文字を目視できない、という問題があった。 In the above technique, for example, when a left-handed user inputs Japanese or English handwritten on the touch panel, the Japanese or English is generally input in the right direction. Then, since the user's hand holding the stylus pen covers the handwritten character, the user cannot visually recognize the handwritten character.
本発明は、このような問題を解決するためになされたものであって、その目的は、ユーザが手書き入力した画像が、ユーザの手などにより覆われたとしても、当該ユーザが手書き入力した画像を別の領域に表示する情報処理装置、表示方法、プログラムを提供することである。 The present invention has been made to solve such a problem, and the purpose of the present invention is to provide an image handwritten by the user even if the image handwritten by the user is covered by the user's hand or the like. An information processing apparatus, a display method, and a program for displaying the image in another area.
本発明のある局面に従う情報処理装置は、表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示手段と、手書き入力を行なう手が右手または左手かを表す手書き情報を導出する導出手段と、表示手段が第1画像の手書き入力を第1位置に受け付けた後、表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および手書き情報に応じた表示領域の端部または該端部の近傍に第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、第2画像に基づく第4画像を第3位置に表示させる表示制御手段と、を備え、第3位置から第4位置までの方向は、第1方向と逆方向である。 An information processing apparatus according to an aspect of the present invention receives a handwritten input of an image within a display area, displays a display unit that displays an image related to the handwritten input at a position where the handwritten input is received, and a hand that performs the handwritten input Deriving means for deriving handwritten information representing right hand or left hand and the display means accepting the handwritten input of the second image at the second position after the displaying means accepts the handwritten input of the first image at the first position After the third image based on the first image is displayed at the third position at or near the end of the display area corresponding to the first direction from the first position to the second position and the handwritten information Display control means for displaying the third image at the fourth position and displaying the fourth image based on the second image at the third position, and the direction from the third position to the fourth position is the first The direction is opposite to the direction.
好ましくは、手書き情報が、左手であることを表し、かつ、第1方向がユーザから見てX軸正方向である場合に、表示制御手段は表示領域の端部を該ユーザから見て右側の端部とする。 Preferably, when the handwritten information represents the left hand and the first direction is the X-axis positive direction when viewed from the user, the display control means The end.
好ましくは、手書き情報が、右手であることを表し、かつ、第1方向がユーザから見てX軸負方向である場合に、表示制御手段は表示領域の端部を該ユーザから見て左側の端部とする。 Preferably, when the handwritten information represents the right hand and the first direction is the X-axis negative direction when viewed from the user, the display control means looks at the end of the display area on the left side when viewed from the user. The end.
本発明の異なる局面に従う情報処理装置は、表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示手段と、手書き入力を行なう手が右手または左手かを表す手書き情報を導出する導出手段と、画像の種類を検出する種類検出手段と、表示手段が第1画像の手書き入力を第1位置に受け付けた後、表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および画像の種類に応じた表示領域の端部または該端部の近傍に第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、第2画像に基づく第4画像を第3位置に表示させる表示制御手段と、を備え、第3位置から第4位置までの方向は、第1方向と逆方向である。 An information processing apparatus according to a different aspect of the present invention receives a handwritten input of an image within a display area, displays a display unit that displays an image related to the handwritten input at a position where the handwritten input is received, and a hand that performs the handwritten input Deriving means for deriving handwritten information representing right hand or left hand, type detecting means for detecting the type of image, and after the display means accepts handwriting input of the first image at the first position, the display means receives the second image. Is received at the second position, the first direction from the first position to the second position and the edge of the display area according to the type of image or the vicinity of the edge based on the first image Display control means for displaying the third image at the third position, then displaying the third image at the fourth position, and displaying the fourth image based on the second image at the third position; The direction from the position to the fourth position is It is a direction opposite direction.
好ましくは、導出手段は、手書き入力を行なう手が右手または左手かを検出することにより、手書き情報を生成する手書き検出手段を含む。 Preferably, the derivation means includes handwriting detection means for generating handwritten information by detecting whether a hand performing handwriting input is a right hand or a left hand.
好ましくは、導出手段は、手書き入力を行なう手が右手または左手かの設定を受け付けることにより、手書き情報を生成する表示手段を含む。 Preferably, the deriving means includes display means for generating handwritten information by accepting a setting of whether the hand performing handwriting input is a right hand or a left hand.
本発明の異なる局面に従う情報処理装置は、表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示手段と、表示領域上の検出対象物を検出する対象物検出手段と、表示手段が第1画像の手書き入力を第1位置に受け付けた後、表示手段が第2画像の手書き入力を第2位置に受け付け、対象物検出手段に検出された検出対象物が第1画像および第2画像に対向または略対向している場合、該第1位置から該第2位置までの第1方向に応じた表示領域の端部または該端部の近傍に第1画像に基づく第3画像を表示させ、その後、該第3画像の表示位置を第1方向と逆方向に移動させ、該端部または該端部の近傍に第2画像に基づく第4画像を表示する表示制御手段と、を備える。 An information processing apparatus according to a different aspect of the present invention receives a handwritten input of an image in a display area, displays an image related to the handwritten input at a position where the handwritten input is received, and a detection target on the display area After the object detecting means for detecting an object and the display means accept the handwritten input of the first image at the first position, the display means accepts the handwritten input of the second image at the second position and detected by the object detecting means. When the detected detection object faces or substantially opposes the first image and the second image, the end of the display area or the end of the end corresponding to the first direction from the first position to the second position A third image based on the first image is displayed in the vicinity, and then the display position of the third image is moved in the direction opposite to the first direction, and the second image based on the second image is located at or near the end. Display control means for displaying four images.
好ましくは、対象物検出手段は、表示領域にできた検出対象物の影の座標を検出し、表示制御手段は、第1画像および第2画像の座標と、検出対象物の影の座標とにおいて、同一である座標の数が予め定められた閾値以上である場合に、対象物検出手段に検出された検出対象物が第1画像および第2画像に対向または略対向しているとする。 Preferably, the object detection means detects the coordinates of the shadow of the detection object formed in the display area, and the display control means determines the coordinates of the first image and the second image and the coordinates of the shadow of the detection object. When the number of the same coordinates is equal to or greater than a predetermined threshold value, it is assumed that the detection target detected by the target detection unit faces or substantially faces the first image and the second image.
好ましくは、表示制御手段は、手書き入力を受け付けた複数の画像それぞれの位置と、該複数の画像それぞれに基づく該複数の画像それぞれの位置とが相対的に同一になるように、該複数の画像それぞれに基づく該複数の画像それぞれを表示させる。 Preferably, the display control means includes the plurality of images so that the positions of the plurality of images that have received handwritten input and the positions of the plurality of images based on the plurality of images are relatively the same. Each of the plurality of images based on each is displayed.
好ましくは、表示制御手段は、手書き入力された画像と、該手書き入力された画像に基づく画像とが重畳しないように、該手書き入力された画像に基づく画像に対して所定の処理を施して表示させる。 Preferably, the display control means performs a predetermined process on the image based on the handwritten input image so that the image based on the handwritten input image does not overlap with the image based on the handwritten input image. Let
好ましくは、所定の処理は、手書き入力された画像の大きさに応じて、該手書き入力された画像に基づく画像を縮小する処理を含む。 Preferably, the predetermined process includes a process of reducing an image based on the handwritten input image in accordance with a size of the handwritten input image.
好ましくは、所定の処理は、直近に手書き入力された画像に基づく画像を優先的に表示する処理を含む。 Preferably, the predetermined process includes a process of preferentially displaying an image based on an image input by handwriting most recently.
好ましくは、表示制御手段は、表示手段に2行以上の画像が手書き入力された場合に、該2行目以降の各々の行の最初の手書き入力された画像に基づく画像が表示される領域を表示する。 Preferably, when two or more lines of images are input by handwriting on the display means, the display control means displays an area in which an image based on the first handwritten input image of each line after the second line is displayed. indicate.
好ましくは、表示制御手段は、ユーザから見たY軸方向の、手書き入力された画像の位置に応じた表示領域の端部または該端部近傍に該画像に基づく画像を表示させる。 Preferably, the display control means displays an image based on the image at or near the end of the display area corresponding to the position of the image input in handwriting in the Y-axis direction as viewed from the user.
本発明の異なる局面に従う表示方法は、表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示方法であって、手書き入力を行なう手が右手または左手かを表す手書き情報を導出するステップと、表示手段が第1画像の手書き入力を第1位置に受け付けた後、表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および手書き情報に応じた表示領域の端部または該端部の近傍に第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、第2画像に基づく第4画像を第3位置に表示させるステップと、を備え、第3位置から第4位置までの方向は、第1方向と逆方向である。 A display method according to a different aspect of the present invention is a display method that accepts handwritten input of an image in a display area and displays an image related to the handwritten input at a position where the handwritten input is accepted, A step of deriving handwritten information indicating whether the hand is a right hand or a left hand, and when the display means accepts the handwritten input of the second image at the second position after the display means accepts the handwritten input of the first image at the first position After the third image based on the first image is displayed at the third position at or near the end of the display area corresponding to the first direction from the first position to the second position and the handwritten information Displaying the third image at the fourth position and displaying the fourth image based on the second image at the third position, and the direction from the third position to the fourth position is the first direction. The reverse direction.
本発明の異なる局面に従うプログラムは、表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像をコンピュータに表示させるプログラムであって、プログラムは、コンピュータに、手書き入力を行なう手が右手または左手かを表す手書き情報を導出するステップと、表示手段が第1画像の手書き入力を第1位置に受け付けた後、表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および手書き情報に応じた表示領域の端部または該端部の近傍に第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、第2画像に基づく第4画像を第3位置に表示させるステップと、を実行させ、第3位置から第4位置までの方向は、第1方向と逆方向である。 A program according to a different aspect of the present invention is a program that accepts handwritten input of an image within a display area, and causes a computer to display an image related to the handwritten input at a position where the handwritten input is accepted. Deriving handwritten information indicating whether the hand performing the handwriting input is the right hand or the left hand, and after the display means accepts the handwriting input of the first image at the first position, the display means performs the handwriting input of the second image. When received at two positions, a third image based on the first image is displayed in the first direction from the first position to the second position and the edge of the display area corresponding to the handwritten information or in the vicinity of the edge. And displaying the third image at the fourth position, and displaying the fourth image based on the second image at the third position, from the third position to the fourth position. Direction in a first direction and the opposite direction.
ある局面において、ユーザが手書き入力した画像が、ユーザの手などにより覆われたとしても、当該ユーザが手書き入力した画像を別の領域に表示できる。 In an aspect, even if an image handwritten by the user is covered by a user's hand, the image handwritten by the user can be displayed in another area.
この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。 The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してあり、それらの名称および機能も同じである。従って、重複説明を繰り返さない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals, and their names and functions are also the same. Therefore, repeated description will not be repeated.
[概略]
図1を参照して、本実施形態の情報処理装置の概略について説明する。図1は、本実施形態の情報処理装置の概略を示した図である。図1の例では、ユーザは左利きであり、左手204でスタイラスペン202を把持し、情報処理装置の表示手段に対して、該スタイラスペン202で、画像を手書き入力している。
[Outline]
With reference to FIG. 1, the outline of the information processing apparatus of this embodiment will be described. FIG. 1 is a diagram schematically illustrating the information processing apparatus according to the present embodiment. In the example of FIG. 1, the user is left-handed, holds the
ここで、情報処理装置の表示手段は、ユーザから手書き入力を受け付けた位置に、該手書き入力された画像を表示させるものであり、例えばタッチパネルである。また、画像は、文字、記号、図形などを含む。図1の例では、画像は、「う」「え」の文字である。また、スタイラスペン202の他に、ユーザが表示領域(入力領域)312aに対して画像を手書き入力できれば、他の手段を用いてもよい。該他の手段とは、例えば、ユーザの指である。
Here, the display means of the information processing apparatus displays the handwritten input image at a position where the handwritten input is received from the user, and is, for example, a touch panel. The image includes characters, symbols, figures, and the like. In the example of FIG. 1, the image is the characters “U” and “E”. In addition to the
本実施形態では、ユーザにより1つ目に手書き入力された画像を第1画像401とし、2つ目に手書き入力された画像を第2画像402とする。図1の例では、第1画像401は「う」の文字であり、第2画像402は「え」の文字である。また、ユーザが3文字目「お」以降を手書き入力する場合には、2文字目「え」を第1画像401とし、3文字目「お」を第2画像402とする。4文字目以降についても同様とする。
In the present embodiment, a
なお、図1の例では、第1画像401や第2画像402を明確化するために、左手204およびスタイラスペン202を透明化している。
In the example of FIG. 1, the
また、ユーザがスタイラスペン202により、第1画像401を手書き入力された位置を第1位置401aとする。ユーザがスタイラスペン202により、第2画像402を手書き入力された位置を第2位置402aとする。また、第1位置401aから第2位置402aに向かう方向を「第1方向α」とする。つまり、ユーザは、第1方向αに向かって、第1画像401および第2画像402を手書き入力する。
Also, a position where the user has input the
また、第1画像401および第2画像402それぞれは、例えば、1つの独立した文字や記号である。また、本実施形態において、図1に示す原点、x軸、y軸、右端、左端、右方向、および左方向は、スタイラスペン202を扱う(手書き入力を行なう)ユーザから見た原点、x軸、y軸、右端、左端、右方向、および左方向である。
Each of the
図1に示すように、手書き入力する画像(第1画像401および第2画像402)が日本語であり、かつ、ユーザが左利きの場合には、該ユーザは、一般的に、該ユーザから見てX軸の正方向α(右方向)に第1画像402および第2画像402を手書き入力する。従って、ユーザは現在手書き入力している文字以前に手書き入力された文字が、ユーザの左手204により覆われることにより、ユーザは該画像を目視できない。図1の例では、ユーザが現在手書き入力している画像を「え」の文字である場合では、「ユーザは現在手書き入力している文字以前に手書き入力された画像」とは、「う」の文字である。
As shown in FIG. 1, when the images to be handwritten (the
ユーザが直近に手書き入力した文字を目視できない場合には、手書き入力処理の効率が低下する場合がある。そこで、本実施形態の情報処理装置は、第1画像401および第2画像402の手書き入力を受け付けた場合に、表示領域312aの右端に第3画像403を表示させる。その後、第3画像403を第4位置404aに表示させ、第4画像404を第3位置403aに表示させる。
If the user cannot visually recognize the character handwritten recently, the efficiency of the handwriting input process may be reduced. Therefore, the information processing apparatus according to the present embodiment displays the
ここで、第3画像403は、第1画像401に基づくものである。図1の例では、第3画像403は、第1画像401「「う」の文字」と形状、大きさともに同一の画像である。また、第4画像404は、第2画像402に基づくものである。また、第4画像404は、第2画像402「「え」の文字」と形状、大きさともに同一の画像である。また、第3位置403aから第4位置404aに向かう方向βは第1方向αと反対方向である。また、第3画像403および第4画像404は枠210に囲まれて表示されることが好ましい。何故なら、ユーザは、手書き入力された画像(第1画像401および第2画像403)と、表示された画像(第3画像403および第4画像404)との区別がつきやすいからである。
Here, the
つまり、情報処理装置は、第1画像401および第2画像402の手書き入力を受け付ける度に、例えば、第3画像403および第4画像404を方向βにスクロール表示する。これにより、ユーザは、第1画像401および第2画像402がユーザの手などにより覆われたとしても、第3画像および第4画像404を目視することにより、第1画像および第2画像402を認識できる。また、本実施形態の情報処理装置は、X軸正方向の手書き入力を受け付ける場合に特に効果を奏する。
That is, the information processing apparatus scrolls and displays, for example, the
[ハードウェア構成]
図2を参照して、本実施形態の情報処理装置100のハードウェア構成を説明する。図2は、情報処理装置100のハードウェア構成例を示したブロック図である。図2の例では、情報処理装置100は、CPU(Central Processing Unit)302と、RAM(Random Access Memory)304と、ROM(Read Only Memory)306と、EEPROM(Electronically Erasable and Programmable Read Only Memory)308と、通信部310と、表示装置312と、操作部314と、外部メディアI/F(Interface)部316と、を含む。
[Hardware configuration]
With reference to FIG. 2, the hardware configuration of the
CPU302は、ROM306に格納されているプログラムや各種データに基づいて、処理を行なう。RAM304は、ROM306から読み出された各種プログラムや各種データを一時保持する。ROM306は、情報処理装置100が、起動されるときに実行されるプログラムや各種データを格納する。
The
通信部310は、他の通信機器と通信する。操作部314は、ユーザからの操作を受け付ける。表示装置312は、例えばタッチパネル機能を備えるディスプレイである。従って、表示装置312は、概念的に、操作部314の一部を含む。
The
外部メディアI/F部316は、情報処理装置100と、外部メディア318(例えばSD(Secure Digital)メモリーカードなど)とのインターフェースの役割を果たす。
The external media I /
[実施形態1]
<機能構成例>
次に、図3を参照して、実施形態1の機能構成例について説明する。図3は、実施形態1の機能構成例を示した図である。また、以下では、画像を文字という場合もある。
[Embodiment 1]
<Functional configuration example>
Next, a functional configuration example of the first embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a functional configuration example of the first embodiment. Hereinafter, the image may be referred to as a character.
図3の例では、情報処理装置100Aは、表示装置312と、座標検出部108と、表示制御部110と、座標記憶部112と、方向検出部114と、取得部116と、手書き検出部106と、を含む。表示装置312は、入力受付部102と表示部104とを含む。
In the example of FIG. 3, the
入力受付部102および表示部104は例えば、それぞれ薄板形状である。表示装置312は、入力受付部102と表示部104とが積層されることにより構成される。また、表示装置312は、表示領域312a(図1参照)を含む。表示領域312aには、ユーザが手書き入力した第1画像等、様々な情報が表示される。図1の例では、入力受付部102の入力領域が表示領域312aである。
For example, the
入力受付部102は、スタイラスペン202などにより、第1画像402(図1参照)の手書き入力操作などを受け付けるパネルである。ユーザは、スタイラスペン202を入力受付部102に接触させることにより、手書き入力操作を行なう。また、入力受付部102は、透明であり、ユーザは、入力受付部102の下層に配置される表示部104に表示される画像や情報を目視できる。
The
座標検出部108は、ユーザから入力受付部102への手書き入力操作を受けると、表示領域312a内において、スタイラスペン202が接触された位置(点)の座標を所定時間(例えば、0.1秒)毎に検出する。座標検出部108は、検出した座標を表示制御部110および認識部118へ出力する。
When the coordinate
認識部118は、辞書記憶部111に記憶されている文字辞書、および、座標検出部108から出力された複数の座標に基づいて、手書き入力された文字を認識する。認識部118は、該文字の認識手法として、種々の認識手法を用いればよい。例えば、認識部118は、複数の座標と文字辞書とを用いて、パターンマッチング処理を行うことにより、手書き入力された文字を認識する。また、辞書記憶部111として、例えば、ROM306を用いればよい。
The
座標記憶部112は、認識部118が認識した文字ごとに、座標の集合を記憶する。図4は、座標記憶部112に記憶された座標の集合を模式的に示した図である。図4を参照して、座標記憶部112の記憶形態を説明する。
The coordinate
図4の例では、座標記憶部112は、第1画像である「う」の文字について、「う」の文字を構成する複数点それぞれの座標(8、6)(9、5)・・・を記憶している。また、座標記憶部112は、第1画像である「え」の文字について、「え」の文字を構成する複数点それぞれの座標座標(21、7)(22、6)・・・を記憶している。なお、図1で説明したように、原点、x軸、およびy軸は、スタイラスペン202を扱うユーザから見た原点、x軸、およびy軸である。
In the example of FIG. 4, the coordinate
表示制御部110は、座標検出部108により検出された座標に基づいて、スタイラスペン202の手書き入力の軌跡を表示部104に表示する。ユーザは、表示部104に表示された手書き入力の軌跡(つまり第1画像402)を目視することにより、該ユーザが手書き入力した第1画像を認識できる。表示制御部110は、入力受付部102が手書き入力を受け付けた、表示部104の位置に該手書き入力された画像を表示する。
The
≪方向検出≫
次に、方向検出部114による方向検出処理について説明する。方向検出部114は、座標記憶部112に記憶されている座標の集合に基づいて、第1方向α(図1参照)を検出する。ここで、第1方向αとは、ユーザにより画像が手書き入力される方向である。例えば、図1の例では、第1方向αは、X軸の正方向(スタイラスペン202を扱うユーザから見て右方向)である。以下では、右方向、左方向、上方向、下方向は、全てスタイラスペン202を扱うユーザから見た方向であるとする。
≪Direction detection≫
Next, direction detection processing by the
また、右方向は、X軸の正方向であり、左方向は、X軸の負方向である。また、上方向は、Y軸の正方向であり、下方向はY軸の負方向である。 Further, the right direction is the positive direction of the X axis, and the left direction is the negative direction of the X axis. Further, the upward direction is the positive direction of the Y axis, and the downward direction is the negative direction of the Y axis.
次に、方向検出部114による方向検出手法の具体例について説明する。方向検出部114は、基準となる文字(図4の例では、「う」)の、X座標の最大値Xmax1およびY座標の最大値Ymax1を取得する。また、方向検出部114は、該基準となる文字の次に、認識部118により認識された文字(図4の例では、「え」)の、X座標の最大値Xmax2およびY座標の最大値Ymax2を取得する。
Next, a specific example of the direction detection method by the
そして、方向検出部114は、Xmax1とXmax2とを比較する。ここで、方向検出部114が、Xmax1≦Xmax2であると判断すると、方向検出部114は、第1方向が右方向であると判断する。一方、方向検出部114が、Xmax1>Xmax2であると判断すると、方向検出部114は、第1方向が左方向であると判断する。
Then, the
また、方向検出部114は、Ymax1とYmax2とを比較する。ここで、方向検出部114が、Ymax1≦Ymax2であると判断すると、方向検出部114は、第1方向が上方向であると判断する。一方、方向検出部114が、Ymax1>Ymax2であると判断すると、方向検出部114は、第1方向が下方向であると判断する。
In addition, the
また、方向検出部114は、基準となる文字の、X座標の平均値Xavg1およびY座標の平均値Yavg1を取得する。また、方向検出部114は、該基準となる文字の次に手書き入力された文字の、X座標の平均値Xavg2およびY座標の平均値Yavg2を取得する。
In addition, the
そして、方向検出部114は、Xavg1とXavg2とを比較する。ここで、方向検出部114が、Xavg1≦Xavg2であると判断すると、方向検出部114は、第1方向が右方向であると判断する。一方、方向検出部114が、Xavg1>Xavg2であると判断すると、方向検出部114は、第1方向が左方向であると判断する。
Then, the
また、方向検出部114は、Yavg1とYavg2とを比較する。ここで、方向検出部114が、Yavg1≦Yavg2であると判断すると、方向検出部114は、第1方向が上方向であると判断する。一方、方向検出部114が、Yavg1>Yavg2であると判断すると、方向検出部114は、第1方向が下方向であると判断する。
In addition, the
この方向検出部114の方向検出手法により、第1方向α(図1参照)を検出できる。方向検出部114は、第1方向を検出して、該第1方向を表す方向情報を生成する。該生成された方向情報は、表示制御部110へ出力される。
The first direction α (see FIG. 1) can be detected by the direction detection method of the
≪手書き情報≫
次に、手書き情報について説明する。手書き情報は、右手または左手のうち、ユーザがスタイラスペン202を保持している手を表す情報である。以下に、該手書き情報の生成手法について説明する。また、本明細書において、手書き情報が右手を表す情報である場合には、「ユーザは右利きである」と言及し、手書き情報が左手を表す情報である場合には、「ユーザは左利きである」と言及する場合がある。
≪Handwritten information≫
Next, handwritten information will be described. The handwritten information is information representing the hand holding the
本実施形態では、手書き検出部106は、表示領域312a上のユーザの手の位置を検出する。ここで、「表示領域312a上」は、ユーザの手が表示領域312aに接触している場合もあり、また、ユーザの手が表示領域312aから離れている場合もある。
In the present embodiment, the
また、ユーザの手の位置の検出方法として、例えば、赤外線や超音波をプローブに利用する場合であれば、手書き検出部106を表示装置312の周囲に配置し、赤外線や超音波の反射波の変動を電気信号として検出する。
Further, as a method for detecting the position of the user's hand, for example, when infrared rays or ultrasonic waves are used for the probe, the
図5を参照して手書き検出部106の検出手法の一例を説明する。図5は、手書き検出部106の検出手法例を示した図である。図5の例では、手書き検出部106は、表示領域312aの周囲に配置された赤外線センサを含む。また、赤外センサのセンサ領域を右半分と左半分とに分ける。左半分の領域を領域106aとし、右半分の領域を領域106bとする。
An example of the detection method of the
赤外線センサで赤外線の反射波を検出することにより、ユーザの手が、赤外線センサ上にあることが分かる。手書き検出部106は、赤外線センサからの反射波の検出信号が領域106aからのものか、領域106bからのものかを判定する。手書き検出部106が、該検出信号が、領域106aからのものである、と判断すると、手書き検出部106は、ユーザがスタイラスペン202を持つ手が左手である旨を表す手書き情報を生成する。一方、手書き検出部106が、該検出信号が、領域106bからのものである、と判断すると、手書き検出部106は、ユーザがスタイラスペン202を持つ手が右手である旨を表す手書き情報を生成する。
By detecting an infrared reflected wave with the infrared sensor, it is understood that the user's hand is on the infrared sensor. The
また、別の検出方式として、手書き検出部106は撮像装置を含み、該撮像装置で撮像した画像に対して画像処理を施す。手書き検出部106は該画像処理結果に基づいて、ユーザの手の位置を検出する。
As another detection method, the
また、別の検出方式として、手書き検出部106を、光センサ液晶としてもよい。光センサ液晶を簡単に説明すると、表示装置312は各画素内に駆動回路の他に光センサが内蔵される。そして、手書き検出部106は、ユーザの手の影を検出することにより、表示領域312a上のユーザの手の位置を検出する。
As another detection method, the
また、別の検出方式として、該スタイラスペン202が傾いてる方向を検出する傾き検出部(例えば、傾き検出センサや加速度センサ)を含ませるようにしてもよい。そして、手書き検出部106は、スタイラスペン202の入力動作中に、該傾き検出部が検出した傾き方向をスタイラスペン202から受信する。そして、手書き検出部106は、該傾き方向に基づいて、手書き情報を生成する。手書き検出部106が、スタイラスペン202が左に傾いていることを検出すると、ユーザは左手でスタイラスペン202を保持していることを表す手書き情報を生成する。また、手書き検出部106が、スタイラスペン202が右に傾いていることを検出すると、ユーザは右手でスタイラスペン202を保持していることを表す手書き情報を生成する。
As another detection method, an inclination detection unit (for example, an inclination detection sensor or an acceleration sensor) that detects the direction in which the
手書き検出部106による、手書き情報の生成手法についてはこれらに限られず、他の生成手法を用いてもよい。
The handwriting information generation method by the
取得部116は、手書き検出部106が生成した手書き情報を取得する。取得部116は、手書き情報を取得すると、表示制御部110に出力する。
The
≪表示態様≫
次に、図6を参照して、表示制御部110による、第3画像403および第4画像404の表示態様について説明する。上述のように、第3画像403および第4画像404それぞれは、第1画像401および第2画像402に基づく。また、以下では、図1に示すように、第3画像403および第4画像404を表示することを「アシスト表示」という。また、ユーザが手書き入力した画像を入力画像とする。つまり入力画像は、第1画像401および第2画像402を含む。また、アシスト表示された画像をアシスト表示画像とする。つまり、アシスト表示画像は、第3画像403および第4画像404を含む。
≪Display mode≫
Next, display modes of the
図6(A)に示すように、ユーザが、スタイラスペン202で、表示装置312に最初の第1画像「う」を手書き入力したとする。この場合には、ユーザが第1画像401である「う」を手書き入力した始めたときに、取得部116は、手書き情報を取得する。この場合には、取得部116は、ユーザは左手でスタイラスペン202を保持していることを表す手書き情報を取得する。
As shown in FIG. 6A, it is assumed that the user inputs the first first image “U” by handwriting on the
そうすると、座標検出部108は、ユーザが手書き入力したことにより、スタイラスペン202が接触した座標を検出する。そして、認識部118は、文字認識を行なうことにより、「う」の文字が手書き入力されたことを認識する。そして、認識部118は、第1画像401が認識されたことを示す、第1認識信号を表示制御部110へ出力する。
Then, the coordinate
次に、ユーザが第2画像402(2個目の画像)である「え」を手書き入力したとする。この場合には、ユーザは「え」を手書き入力している途中に、方向検出部114は、ユーザの第1方向αを検出する。図6の例では、「え」の手書き入力始めの点のX座標は、「う」を構成する複数の点のうち、最大のX座標よりも大きい。従って、方向検出部114は、第1方向は右方向であることを表す方向情報を生成し、表示制御部110へ送信する。
Next, it is assumed that the user inputs “e”, which is the second image 402 (second image), by handwriting. In this case, the
表示制御部110は、方向情報に基づいて、アシスト表示する始点210aを決定する。表示制御部110は、方向情報および手書き情報に応じた表示領域312aの端部を決定する。
The
また、図6(B)を用いて、表示制御部110の端部の決定手法の詳細について説明する。図6(B)に示すように、第1位置401a(第1画像401の手書き入力受け付けた位置および第1画像401の表示位置)の重心を第1重心401bとする。第2位置402a(第2画像402の手書き入力受け付けた位置および第2画像402の表示位置)の重心を第2重心402bとする。
Details of the edge determination method of the
表示制御部110は、表示領域312aの左右の端部312bおよび312cのうち、第1重心401bから第2重心402bに向かう直線Lと交わる端部(図6(B)の例では、端部312c)を、アシスト表示する位置として決定する。
The
ここで、方向情報が右方向であることを表す方向情報であり、かつ、手書き情報が左手を表す手書き情報である場合には、アシスト表示の始点は、表示領域310aの右端とする。何故なら、図1に示すように、左利きのユーザ(つまり、左手でスタイラスペン202を保持するユーザ)が右方向に文字などを手書き入力する場合には、右端からアシスト表示されることにより、ユーザは第1画像を手書き入力しながら該アシスト表示を目視しやすいからである。
Here, when the direction information is the direction information indicating the right direction and the handwritten information is the handwritten information indicating the left hand, the starting point of the assist display is the right end of the display area 310a. This is because, as shown in FIG. 1, when a left-handed user (that is, a user holding the
表示制御部110は、アシスト表示する始点210aを決定すると、該決定された始点210aに、枠210の端部210bを表示させる。これにより、ユーザはアシスト表示される箇所を明確に認識できる。
When the
次に、図6(C)に示すように、ユーザが第2画像402である「え」を手書き入力している途中に、表示制御部110は、直近に手書き入力された第1画像401である「う」に基づく第3画像403である「う」の文字をアシスト表示する。また、アシスト表示する方向βは、第1方向αと逆方向である。なお、第1方向αは、方向検出部114により検出される。
Next, as illustrated in FIG. 6C, the
図6(C)に示すように、ユーザが直近に手書き入力した「う」の文字が、ユーザの手により覆われてしまい、ユーザは「う」の文字を目視できなくなる。そこで、本実施形態のように、「う」の文字をアシスト表示することにより、ユーザは直近に手書き入力した文字が「う」であることを認識できる。 As shown in FIG. 6C, the “U” character that the user recently input by handwriting is covered by the user's hand, and the user cannot see the “U” character. Therefore, as in the present embodiment, by assisting the display of the character “U”, the user can recognize that the character input by handwriting is “U”.
次に、図6(D)に示すように、ユーザが第2画像402である「え」を手書き入力し終わって、3つ目の画像「う」の手書き入力の途中に、表示制御部110は、直近に手書き入力された第2画像402である「え」に基づく第4画像404を第3位置403aにアシスト表示する。また、表示制御部110は、第3画像403を第4位置404aにアシスト表示する。上述のように、第3位置403aから第4位置404aに向かう方向βは、第1方向αと反対方向である。
Next, as illustrated in FIG. 6D, the user finishes handwriting input “e”, which is the
ここで、表示制御部110による、図4(C)の状態から図4(D)の状態に遷移する際の、第3画像403および第4画像404の表示態様としては例えば2つの表示態様がある。
Here, as the display mode of the
1つ目の表示態様として、表示制御部110は、第3画像403(「う」の文字)の表示を維持しながら、該第3画像403を第3位置403aから第4位置404aまで移動させる。それと共に、表示制御部110は、第3位置403aに第4画像404を表示させる。つまり、表示制御部110は、方向βに第3画像403および第4画像404をスクロール表示する。
As a first display mode, the
2つ目の表示態様として、表示制御部110は、第3位置403aに表示されている第3画像403を非表示とし、第4位置404aに該第3画像403を表示させる。それと共に、表示制御部110は、第3位置403aに第4画像404を表示させる。
As a second display mode, the
これにより、ユーザが入力画像を手書き入力する毎に、該入力画像に基づくアシスト表示画像が表示される。従って、ユーザは、入力画像がユーザの手により覆われて該入力画像を認識できなくても、アシスト表示画像を目視することにより、ユーザ自身が手書き入力した入力画像を認識できる。 Thereby, whenever the user inputs the input image by handwriting, an assist display image based on the input image is displayed. Therefore, even if the input image is covered by the user's hand and the input image cannot be recognized, the user can recognize the input image input by handwriting by viewing the assist display image.
また、入力受付部102が第2画像402の受付を完了し、次の画像「図6(D)の例では「う」の文字」を受け付ける際には、「え」の文字が第1画像401とし、「う」の文字が「第2画像402」として、表示制御部110は上述の処理を行う。
In addition, when the
また、第1画像401、第2画像402、第3画像403、第4画像404の表示態様を自然数N、Mを用いて説明する。図6(C)、(D)において、第N画像は第1画像401に対応し、第N+1画像は第2画像402に対応し、第N位置は第1位置401aに対応し、第N+1位置は第2位置402aに対応する。第M画像は第3画像403に対応し、第M+1画像は第4画像404に対応し、第M位置は第3位置403aに対応し、第M+1位置は第4位置404aに対応する。また、第1方向αは、第N位置から第N+1位置に向かう方向である。
The display modes of the
入力受付部102が第N画像の手書き入力を受け付け、第N+1画像の手書き入力を受け付けている途中に、表示制御部110は、第N画像に基づく画像である第M画像(第3画像403に対応)を第M位置(第3位置に対応)にアシスト表示する。また、入力受付部102が、第N+1画像(第4画像404に対応)の手書き入力の受付を完了し、第N+2画像の手書き入力を受け付けている途中に、表示制御部110は、第N+1画像に基づく画像である第M+1画像(第3画像403に対応)を第M位置(第3位置に対応)にアシスト表示する。
While the
また、入力受付部102が第N画像〜第N+n(ただし、nは自然数)画像の手書き入力を受け付けた場合には、表示制御部110は、第N画像〜第N+nに基づく第M画像〜第M+n画像をアシスト表示する。また、第N画像の手書き入力を受け付けた位置第N位置から、第N+n画像の手書き入力を受け付けた第N+n位置へ向かう直線の方向α(第1方向)は、第M画像が表示される第M位置から、第M+n画像が表示される第M+n位置へ向かう方向βと逆方向となる。
When the
≪2行目以降のアシスト表示≫
以下では、図6(E)に示すように、ユーザにより手書き入力された画像(つまり、第1画像401および第2画像402)をまとめて「入力画像4001」とし、該入力画像に基づいてアシスト表示される画像をまとめて「アシスト表示画像4002」という。
≪Assist display after the second line≫
In the following, as shown in FIG. 6E, images input by handwriting by the user (that is, the
次に、図6(E)に示すように、ユーザが下方向に入力画像4001を描画した場合の、表示制御部110などの処理について説明する。図6(E)に示すように、ユーザが下方向に入力画像4001である「あ」を手書き入力した場合に、方向検出部114は、第1方向αが下方向であることを検出する。そして、表示制御部110は、第2画像として、「あ」の文字をアシスト表示する。
Next, as shown in FIG. 6E, a process performed by the
ここで、図6(E)に示すように、表示制御部110は、複数の入力画像4001それぞれの位置と、複数のアシスト表示画像4002それぞれの位置とが相対的に同一になるように、該アシスト表示画像4002をアシスト表示する。従って、ユーザは、入力画像4001が、複数行になる場合でも、複数の入力画像の位置関係を認識できる。
Here, as shown in FIG. 6E, the
≪カーソル表示≫
また、以下の説明では、アシスト表示画像4002が表示される領域(つまり、枠210内の領域)をアシスト表示領域208aとする。次に、スタイラスペン202により2行目以降の入力画像4001(図6(E)参照)が手書き入力される場合について説明する。図6(F)に示すように、表示制御部110は、2行目以降の入力画像4001「あ」が手書き入力された場合に、該2行目以降の各々の行の最初の入力画像4001に基づくアシスト表示画像4002が表示される領域(以下、「カーソル」という。)208bを表示する。ユーザは、カーソル208bを視認することにより、2行目以降を手書き入力した場合に、該2行目以降それぞれに手書き入力された最初の入力画像4001に対応するアシスト表示画像4002が表示される位置を認識できる。
≪Cursor display≫
In the following description, an area where the
カーソル208bについてさらに説明する。2行目以降各行にそれぞれ手書き入力された最初の入力画像4001(図6(E)(F)の例では「あ」の文字)について最初に手書き入力された点を開始点206aとする。表示制御部110は、開始点206aの座標を、座標検出部108から取得する。そして、表示制御部110は、既に手書き入力された文字(図6(F)の例では、「う,え,う」の文字)に対する開始点206aの位置を把握する。そして、表示制御部110は、既に表示されているアシスト表示画像4002(図6(F)の例では、「う,え,う」の文字)において、把握された該開始点206aの相対的位置と同一の位置の点(以下、「同一点」とする。)208cを含む領域をカーソル208bとする。
The
また、取得部116は、ユーザは左手でスタイラスペン202を保持していることを表す手書き情報を取得しており、方向検出部114は、右方向および下方向を表す第1方向を検出していることにより、ユーザは開始点206aから右方向および下方向へ手書き入力する可能性が高い。従って、同一点208cを左上隅とするカーソル208bを表示する。また、表示制御部110は、カーソル208bの表示態様を、他の領域の表示態様と異ならせるようにすればよい。例えば、表示制御部110は、カーソル208bを点滅させる。これにより、ユーザは、アシスト表示画像4002が表示される位置を容易に認識できる。
The
次に、カーソル208bの大きさ(面積)について説明する。表示制御部110は、既に手書き入力された各文字それぞれが占有している領域(以下、「占有領域」という。)の面積を導出する。図6(G)は、文字「う」についての占有領域の一例を示した図である。表示制御部110は、座標記憶部112から、文字「う」を構成する複数の点について、X座標が最大値となる点206g,X座標が最小値となる点206i,Y座標が最大値となる点206f,Y座標が最小値となる点206h,のX座標およびY座標それぞれを取得する。
Next, the size (area) of the
点206gを通る直線,点206iを通る直線において、それぞれが並行となる直線それぞれを直線206gL,206iLとする。また、点206fを通る直線,点206hを通る直線において、それぞれが並行となる直線それぞれを直線206fL,206hLとする。表示制御部110は、これら4本の直線206gL,206iL,206fL,206hLで囲まれた矩形状の面積を、占有領域の面積として導出する。
In the straight line passing through the point 206g and the straight line passing through the
表示制御部110は、既に手書き入力された各文字それぞれの占有面積の面積を導出し、これらの平均値を求める。表示制御部110は、該求められた平均値をカーソル208bの面積とする。
The
≪アシスト表示のY軸方向の位置≫
次に、図7に示すように、ユーザが表示領域312aの上部に、入力画像4001を手書き入力したとする。この場合には、ユーザのアシスト表示の視認性を鑑みて、表示制御部110は、下部にアシスト表示する。
≪Y-axis position of assist display≫
Next, as shown in FIG. 7, it is assumed that the user inputs an
例えば、表示制御部110は、座標検出部108が検出した入力画像4001の点の集合各々の座標を検出する。表示制御部110は、該各々座標のうちY座標の平均値を算出する。そして、表示制御部110は、該平均値と、予め定められた閾値とを比較する。表示制御部110が、該平均値は該閾値以上であると判断した場合には、入力画像4001は上方に手書き入力されたということなので、表示制御部110は、アシスト表示画像4002を下方に表示する(図7の状態)。また、表示制御部110が、該平均値は該閾値未満であると判断した場合には、入力画像4001は下方に手書き入力されたということなので、表示制御部110は、アシスト表示画像4002を上方に表示する(図1の状態)。
For example, the
このように、表示制御部110は、入力画像4001のY軸方向の位置(Y座標)に応じた表示領域312aの端部または該端部近傍にアシスト表示画像4002を表示させる。従って、ユーザは表示領域312aの上部に入力画像4001を手書き入力したとしても、下部にアシスト表示されることから、ユーザは容易にアシスト表示を認識できる。
In this way, the
≪ユーザが右利きで、第1方向が左方向である場合≫
次に、図8を参照して、ユーザが右利きであり、かつ、第1方向が左方向である場合について説明する。図8は、ユーザが、入力画像4001としてアラビア語を手書き入力することを示した図である。一般的に右利きのユーザが、例えばアラビア語を手書き入力する場合には、第1方向αは、左方向となる。
≪When the user is right-handed and the first direction is the left direction≫
Next, a case where the user is right-handed and the first direction is the left direction will be described with reference to FIG. FIG. 8 is a diagram illustrating that the user inputs Arabic handwritten as the
この場合には、取得部116は、ユーザは右手でスタイラスペン202を保持していることを表す手書き情報を取得する。また、方向検出部114は、第1方向αが左方向であることを検出する。そして、表示制御部110は、表示領域312aの端において、記述情報に応じた端として、表示領域の左端を、アシスト表示の始点として決定する。そして、表示制御部110は、ユーザがアラビア語を1文字を手書き入力する度に、該手書き入力されたアラビア語を方向βにアシスト表示する。
In this case, the
このように、表示制御部110は、手書き情報が、ユーザは右手でスタイラスペン202を保持していることを表す情報であり、かつ、第1方向αが左方向または略左方向である場合に、アシスト表示画像4002を表示させる。
As described above, the
≪処理の流れ≫
次に、図9を参照して、実施形態1の情報処理装置の処理の流れについて説明する。図9は、実施形態1の処理フローの一例を示した図である。図9の処理フローでは、入力画像4001が日本語または英語である場合について示したものである。
≪Process flow≫
Next, the flow of processing of the information processing apparatus according to the first embodiment will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of a processing flow according to the first embodiment. The processing flow of FIG. 9 shows a case where the
ステップS2において、表示制御部110は、取得部116が取得した手書き情報が、ユーザは左手でスタイラスペン202を保持していることを示す情報であるか否か、を判断する。表示制御部110が、手書き情報はユーザは右手でスタイラスペン202を保持していることを示す情報であると判断すると(ステップS2のNO)、アシスト表示することなく、処理を終了する。一方、表示制御部110が、手書き情報はユーザは左手でスタイラスペン202を保持していることを示す情報であると判断すると(ステップS2のYES)、処理はステップS4に移行する。
In step S <b> 2, the
ステップS4において、表示制御部110は、設定モードを左利きモードに設定する。ステップS6において、表示制御部110は、アシスト表示準備を行なう(図6(A)参照)。
In step S4, the
ステップS8において、認識部118は、最初に手書き入力された入力画像4001(つまり第1画像401)を文字認識した後に、スタイラスペン202の接触座標を座標記憶部112に格納する。
In step S <b> 8, the
ステップS10において、認識部118は、文字認識することにより、ユーザにより手書き入力された文字が1文字であるか否かを判断する。認識部118は、ユーザにより手書き入力された文字が1文字でないと判断すると(ステップS10のNO)、処理は、ステップS4に戻る。認識部118は、ユーザにより手書き入力された文字が1文字であると判断すると(ステップS10のYES)、処理は、ステップS12に移行する。
In step S10, the recognizing
ステップS12において、表示制御部110は、ステップS10において認識部118が認識した1文字(第1画像)をコピーする。
In step S12, the
ステップS14において、表示制御部110は、方向検出部114が検出した第1方向αを取得する。表示制御部110は、該第1方向αが、右向きであるか左向きであるか検出する。検出結果が右向きである場合には(ステップS14のYES)、処理はステップS16に移行する。また、検出結果が左向きである場合には(ステップS14のNO)、処理はステップS20に移行する。
In step S <b> 14, the
ステップS16において、CPU302は、基準となる文字のX座標を1文字分、インクリメントする。該基準となる文字は、方向検出部114が第1方向を検出するために用いられる。
In step S16, the
ステップS18において、表示制御部110は、図1に記載のように、右端から左方向に、ステップS12でコピーした入力画像4001に基づいたアシスト表示画像4002をアシスト表示する。
In step S18, as illustrated in FIG. 1, the
ステップS20において、座標検出部108は、スタイラスペン202が、入力受付部102に対して非接触になったか否かを判断する。座標検出部108が、非接触になったと判断すると(ステップS20のYES)、処理はステップS22に移行する。一方、座標検出部108が、スタイラスペン202は入力受付部102に対して接触されていると判断すると(ステップS20のNO)、処理はステップS26に移行する。
In step S <b> 20, the coordinate
ステップS22において、CPU302は、座標検出部108が、非接触になったと判断した時から、所定時間(例えば、2秒)経過したか否かを判断する。CPU302は、座標検出部108が、非接触になったと判断した時から、所定時間経過するまで、該判断を繰り返す(ステップS22のNO)。CPU302は、座標検出部108が、非接触になったと判断した時から、所定時間経過したと判断すると、処理はステップS24に移行する。
In step S <b> 22, the
ステップS24において、座標検出部108は、スタイラスペン202が入力受付部102に対して非接触のままか否かを判断する。座標検出部108が非接触のままであると判断すると(ステップS24のYES)、処理はステップS32に移行する。一方、座標検出部108は、スタイラスペン202が入力受付部102に接触されたと判断すると(ステップS24のNO)、処理はステップS26に移行する。
In step S <b> 24, the coordinate
ステップS26において、表示制御部110は、方向検出部114が検出した第1方向αを取得する。表示制御部110は、該第1方向αが、上方向かを下方向か検出する。検出結果が上方向である場合には(ステップS26のNO)、処理はステップS14に戻る。また、検出結果が下向きである場合には(ステップS26のYES)、処理はステップS28に移行する。
In step S26, the
ステップS28において、CPU302は、基準となる文字のY座標を−1文字分、インクリメントする。
In step S28, the
ステップS30において、表示制御部110は、2行のアシスト表示をする(図6(E)参照)。
In step S30, the
ステップS32において、表示制御部110は、アシスト表示を終了する(アシスト表示を消去する)。ステップS24でYESと判断されたということは、ユーザが手書き入力処理を終了させた、ということである。また、ステップS24でNOと判断されたということは、ユーザが新たな文字を手書き入力したということである。
In step S32, the
≪まとめ≫
本実施形態の情報処理装置は、表示領域312aの端において第1方向αに応じた端から、第1方向αと逆方向βに、入力画像4001と対応するアシスト表示画像4002をアシスト表示する。第1方向αに応じた端とは、第1方向αが右方向である場合には、表示領域312aの右端であり、第1方向αが左方向である場合には、表示領域312aの左端である。従って、ユーザは、直近に手書き入力した入力画像4001が手に覆われて視認できなくても、アシスト表示画像4002を視認することにより、入力画像4001を認識できる。
≪Summary≫
The information processing apparatus according to the present embodiment assists and displays the
[実施形態2]
次に、実施形態2について説明する。図10は、実施形態2の情報処理装置100Bの機能構成例を示した図である。図10は、操作受付部120が追加されている点で、図3と異なる。実施形態1では、手書き検出部106が、ユーザの手等を検出することにより、ユーザがスタイラスペン202を保持している手が右手であるか左手であるかを検出する。実施形態2では、操作受付部120は、ユーザから、該ユーザが右利きか左利きかの入力を受け付ける。
[Embodiment 2]
Next,
図11を参照して、操作受付部120について説明する。図11は、実施形態2の操作画面3120の一例を示した図である。表示装置312は、該操作画面3120を表示する。操作画面3120は、左利きキー3120aおよび右利きキー3120bを含む。これらのキーは、ユーザによりタッチ可能とする。
The operation reception unit 120 will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of the
ユーザは、自身が該当する手書きに対応するキーをタッチする。操作受付部120は、タッチされたキーに対応する手書き情報を生成する。取得部116は、操作受付部120が生成した手書き情報を取得する。
The user touches a key corresponding to his / her handwriting. The operation reception unit 120 generates handwritten information corresponding to the touched key. The
また、図11の例では、表示装置312に表示された操作画面について説明したが、ハードキー(図示せず)により、ユーザは手書きを選択可能としてもよい。
In the example of FIG. 11, the operation screen displayed on the
また、導出部122は、操作受付部120および手書き検出部106のうち少なくとも一方を含む。つまり、導出部122は、手書き情報を検出するものである。
The
本実施形態2の情報処理装置であれば、手書き検出部106の検出処理がなくても、ユーザから手書きを選択させることにより、取得部116は、手書き情報を取得できる。
In the information processing apparatus according to the second embodiment, the
[実施形態3]
次に、図12を用いて、実施形態3の情報処理装置100Cについて説明する。図12は、実施形態3の情報処理装置100Cの機能構成例である。図12は、取得部116、手書き検出部106、表示制御部110がそれぞれ、取得部130、対象物検出部150、表示制御部140に代替されている点で、図3と異なる。
[Embodiment 3]
Next, the information processing apparatus 100C according to the third embodiment will be described with reference to FIG. FIG. 12 is a functional configuration example of the information processing apparatus 100C according to the third embodiment. 12 differs from FIG. 3 in that the
実施形態1では、表示制御部110は、方向検出部114が検出した第1方向、および、取得部116が取得した手書き情報に基づいて、アシスト表示をする。実施形態3の表示制御部140は、手書き情報を用いずに、表示領域312a上に存在する対象検出物を検出し、該検出結果と、第1方向とに基づいて、アシスト表示する。
In the first embodiment, the
対象物検出部150の構成は、大略して手書き検出部106と同様の構成である(例えば、図5参照)。従って、対象物検出部150は、検出対象物500を検出できる。検出対象物500は、例えば、スタイラスペン202およびユーザの手などである。
The configuration of the
対象物検出部150は検出結果を取得部130へ送信する。ここで、好ましくは、検出結果は、検出対象物500が表示領域312aに接触している座標、および、表示領域312aにできる検出対象物500の影の座標を含む。図13は、ユーザの手204の影204a等を示した図である。
The
対象物検出部150は、図13に示すスタイラスペン202およびユーザの手の影204aの座標(座標の集合)を検出する。そして、対象物検出部150は、該座標を取得部130に送信する。取得部130は、該送信された座標の集合C1を取得する。取得部130は、取得した座標の集合を表示制御部140へ送信する。
The
また、表示制御部140は、手書き入力された入力画像4001を構成する座標の集合C2を座標記憶部112から取得する。そして、表示制御部140は、取得部130から取得した座標の集合C1と、座標記憶部112から取得した座標C2の集合とに基づいて、第1画像と検出対象物500とが、対向または略対向しているか否かを判断する。
In addition, the
具体的には、表示制御部140は、座標の集合C1と座標の集合C2とを比較して、同一である座標の数が、予め定められた閾値以上あれば、第1画像と検出対象物500とが、対向または略対向していると判断する。一方、該同一である座標の数が、該閾値未満あれば、表示制御部140は、第1画像と検出対象物500とが、対向していないと判断する。
Specifically, the
入力画像4001と検出対象物500とが対向または略対向している場合には、ユーザは、入力画像4001を目視できない。従って、この場合は、表示制御部140は、入力画像4001に対応する第2画像をアシスト表示する。
When the
また、アシスト表示の開始箇所の決定手法については、実施形態1と同様なので、説明を省略する。 Further, the method for determining the start position of the assist display is the same as in the first embodiment, and thus the description thereof is omitted.
この実施形態3の情報処理装置100Cによると、表示制御部140が、入力画像4001と検出対象物500とが対向または略対向していると判断した場合に、表示制御部140は、表示領域の端のうち第1方向αに応じた端から、第1方向αと逆方向βに、アシスト表示する。この手法では、手書き情報を生成せずとも、実施形態1と同様の効果を奏する。
According to the information processing apparatus 100C of the third embodiment, when the
[実施形態4]
図14は、実施形態4の情報処理装置100Dの機能構成例を示した図である。図14は、図3と比較して、取得部116、表示制御部110がそれぞれ、取得部230、表示制御部240に代替されており、さらに言語検出部250が追加されている点で、図3と異なる。
[Embodiment 4]
FIG. 14 is a diagram illustrating a functional configuration example of the
実施形態4では、入力画像4001が言語である場合に、表示制御部240は、言語の種類と第1方向αに基づいて、アシスト表示する。図15は、表示制御部240がアシスト表示する条件の一例を示した図である。
In the fourth embodiment, when the
図15に示すように、ユーザが左利きであり、かつ、言語が日本語または英語である場合には、図1に示すように、ユーザの手により手書き入力された言語が覆われる。従って表示制御部はアシスト表示する。 As shown in FIG. 15, when the user is left-handed and the language is Japanese or English, the language handwritten by the user's hand is covered as shown in FIG. Therefore, the display control unit performs assist display.
また、ユーザが右利きであり、かつ、言語がアラビア語である場合には、図8に示すように、ユーザの手により手書き入力された言語が覆われる。従って表示制御部240はアシスト表示する。
In addition, when the user is right-handed and the language is Arabic, the language handwritten by the user's hand is covered as shown in FIG. Accordingly, the
言語検出部250は、認識部118が認識した言語の種類を検出する。言語検出部250の言語の種類の検出手法は、例えば、パターンマッチング方式を用いればよい。言語検出部250により検出された言語の種類は、表示制御部240に出力される。
The
表示制御部240は、取得部230から出力された手書き情報、および、言語検出部250から出力された言語の種類に基づいて、アシスト表示する。
The
この実施形態4の情報処理装置100Dによると、第1方向を検出することなく、実施形態1と同様の効果を奏する。
According to the
[実施形態5]
図16を参照して、実施形態5の情報処理装置について説明する。図16は、実施形態5の情報処理装置の表示画面の一例である。ユーザが、入力画像4001を大きく手書き入力した場合に、入力画像4001とアシスト表示画像4002とが重畳してしまい、ユーザがアシスト表示画像4002を見づらくなる。そこで、図16に示すように、実施形態5の情報処理装置は、第1画像の領域の大きさに応じて、第2画像を縮小して表示する。
[Embodiment 5]
With reference to FIG. 16, the information processing apparatus of Embodiment 5 is demonstrated. FIG. 16 is an example of a display screen of the information processing apparatus according to the fifth embodiment. When the user performs large handwriting input on the
また、以下の説明では、機能構成例は図3とするが、他の図面に示す機能構成例でもよい。以下では、入力画像4001が表示される領域を第1画像領域510とし、アシスト表示画像4002が表示される領域を第2画像領域512とする。
In the following description, the functional configuration example is illustrated in FIG. 3, but may be functional configuration examples illustrated in other drawings. Hereinafter, the area where the
図17を参照して、表示制御部110の処理の内容を説明する。図17は、実施形態5の表示制御部110の処理フローの一例を示した図である。
With reference to FIG. 17, the content of the process of the
ステップS102において、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳すると推定されるか否かを判断する。または、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳したか否かを判断する。入力画像4001とアシスト表示画像4002の重畳については、入力画像4001を構成する複数の点の座標と、アシスト表示画像4002を構成する複数の点の座標とに基づいて行われる。
In step S102, the
ステップS102において、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳すると判断すると(ステップS102のYES)、処理はステップS104に移行する。一方、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳しないと判断すると(ステップS102のNO)、処理はステップS108に移行する。
In step S102, if
ステップS104において、表示制御部110は、第1画像領域510の面積(例えば、ドット数)を算出する。
In step S104, the
ステップS106において、表示制御部110は、第1画像領域510の面積に応じて、アシスト表示画像4002のフォントサイズを縮小する。なお、例えば、第1画像領域510の面積に応じた係数rが、情報処理装置の製造時に予め決定される。該係数rの定め方として、該係数rが乗算されたフォントサイズで第2画像をアシスト表示した場合に、入力画像4001と重畳しないように、該係数rを定める。そして、表示制御部110は、アシスト表示画像4002のフォントサイズ(つまり、第1画像のフォントサイズ)に、該係数rを乗算する。そして、表示制御部110は、該係数rが乗算されたフォントサイズで、アシスト表示画像4002をアシスト表示する。
In step S <b> 106, the
一方、ステップS108において、表示制御部110は、アシスト表示画像4002のフォントサイズを変えずに、アシスト表示画像4002をアシスト表示する。
On the other hand, in step S108, the
なお、ステップS102で、表示制御部110は、入力画像4001とアシスト表示画像4002とが既に重畳したか否かを判断するようにしてもよい。そして、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳したと判断すると、即座に、ステップS104とS106の処理を行なう。
In step S102, the
この実施形態5の情報処理装置は、入力画像4001とアシスト表示画像4002とを重畳させずに、アシスト表示画像4002をアシスト表示できる。
The information processing apparatus according to the fifth embodiment can assist display the
[実施形態6]
図18を参照して、実施形態6の情報処理装置について説明する。図18は、実施形態6の情報処理装置の表示画面の一例である。ユーザが、入力画像4001を大きく手書き入力した場合に、入力画像4001とアシスト表示画像4002とが重畳してしまい、ユーザがアシスト表示画像4002を見づらくなる。
[Embodiment 6]
With reference to FIG. 18, the information processing apparatus of Embodiment 6 is demonstrated. FIG. 18 is an example of a display screen of the information processing apparatus according to the sixth embodiment. When the user performs large handwriting input on the
そこで、実施形態6の表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳する場合には、表示制御部110は、直近に手書き入力された画像に基づく画像を優先的に表示する。図18の例では、表示制御部110は、直近に手書き入力された画像「かけます。交通手段は、電車です。」を優先的に表示している。つまり、表示制御部110は、以前に手書き入力された「今日の天気は晴れです。」の全て、および、「私は、今から買い物に出かけます。」の一部を消去して表示している。
Therefore, when the
図19を参照して、表示制御部110の処理の内容を説明する。図19は、実施形態6の表示制御部110の処理フローの一例を示した図である。
With reference to FIG. 19, the content of the process of the
ステップS102において、表示制御部110は、入力画像4001とアシスト表示画像4002とをそれぞれ同じ大きさで表示した場合に、入力画像4001とアシスト表示画像4002とが重畳すると推定されるか否かを判断する。または、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳したか否かを判断する。
In step S102, the
ステップS102において、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳すると判断すると(ステップS102のYES)、処理はステップS110に移行する。一方、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳しないと判断すると(ステップS102のNO)、処理はステップS108に移行する。
In step S102, when the
ステップS110において、表示制御部110は、直近に手書き入力された入力画像4001に基づくアシスト表示画像4002を優先的に表示する。また、表示制御部110は、アシスト表示画像4002が表示される第2画像領域512の大きさを固定するようにしてもよい。
In step S110, the
なお、ステップS102で、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳したか否かを判断するようにしてもよい。この場合には、入力画像4001とアシスト表示画像4002とが重畳したと判断した後に、表示制御部110は、直近に手書き入力された入力画像4001に基づくアシスト表示画像4002を優先的に表示する。
In step S102, the
この実施形態6の情報処理装置は、入力画像4001とアシスト表示画像4002とを重畳させずに、アシスト表示画像4002をアシスト表示できる。
The information processing apparatus according to the sixth embodiment can assist display the
また、実施形態5および実施形態6の手法によらず、他の手法により、表示制御部は、入力画像4001およびアシスト表示画像4002が重畳しないように、入力画像4001およびアシスト表示画像4002を表示するようにしてもよい。
In addition, the display control unit displays the
[その他]
上述の通り、本実施形態の情報処理装置は表示領域の端から、アシスト表示する、と説明した。その他に、図20(A)に示すように、入力画像4001が手書き入力された領域以外の領域にアシスト表示画像4002をポップアップ画像で表示する手法も考えられる。しかし、図20(B)に示すように、入力画像4001が手書き入力された位置が変更される度に、アシスト表示画像4002が表示される位置が変更される。従って、ユーザはアシスト表示画像4002の表示位置が変更される度に、視線を変える必要があり、ユーザは該アシスト表示画像4002を見づらくなる。
[Others]
As described above, it has been described that the information processing apparatus of the present embodiment performs assist display from the end of the display area. In addition, as shown in FIG. 20A, a method of displaying the
一方、本実施形態の情報処理装置では、アシスト表示の始点が固定されているため、図20と比較して、ユーザはアシスト表示を見やすい。 On the other hand, in the information processing apparatus according to the present embodiment, since the starting point of the assist display is fixed, the user can easily see the assist display as compared with FIG.
また、本発明の情報処理装置は、CPUとその上で実行されるプログラムにより実現される。本発明を実現するプログラムは、コンピュータが読み取り可能な記録媒体、例えば半導体メモリ、ハードディスク、CD−ROM、DVD等に格納することができ、これらの記録媒体に記録して提供され、又は、通信インタフェースを介してネットワークを利用した送受信により提供される。 The information processing apparatus of the present invention is realized by a CPU and a program executed on the CPU. The program for realizing the present invention can be stored in a computer-readable recording medium such as a semiconductor memory, a hard disk, a CD-ROM, a DVD, or the like, provided by being recorded on these recording media, or a communication interface. It is provided by transmission / reception using a network.
また、今回開示された実施形態はすべての点で例示であって、制限的なものではない。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 In addition, the embodiment disclosed this time is illustrative in all points and is not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
102 入力受付部、104 表示部、106 手書き検出部、108 座標検出部、110 表示制御部、111 辞書記憶部、112 座標記憶部、114 方向検出部、116 取得部、118 認識部、120 操作部、122 導出部、150 対象物検出部、202 スタイラスペン。 102 input accepting unit, 104 display unit, 106 handwriting detection unit, 108 coordinate detection unit, 110 display control unit, 111 dictionary storage unit, 112 coordinate storage unit, 114 direction detection unit, 116 acquisition unit, 118 recognition unit, 120 operation unit , 122 Deriving unit, 150 Object detecting unit, 202 Stylus pen.
Claims (16)
手書き入力を行なう手が右手または左手かを表す手書き情報を導出する導出手段と、
前記表示手段が第1画像の手書き入力を第1位置に受け付けた後、前記表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および前記手書き情報に応じた前記表示領域の端部または該端部の近傍に前記第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、前記第2画像に基づく第4画像を前記第3位置に表示させる表示制御手段と、を備え、
前記第3位置から前記第4位置までの方向は、前記第1方向と逆方向である、情報処理装置。 Display means for receiving handwritten input of an image in a display area, and displaying an image related to the handwritten input at a position where the handwritten input is received;
Deriving means for deriving handwritten information indicating whether the hand performing handwriting input is the right hand or the left hand;
After the display means accepts the handwritten input of the first image at the first position, and when the display means accepts the handwritten input of the second image at the second position, the second position from the first position to the second position. The third image based on the first image is displayed at the third position at or near the end of the display area corresponding to the one direction and the handwritten information, and then the third image is set at the fourth position. Display control means for displaying and displaying a fourth image based on the second image at the third position;
The information processing apparatus, wherein a direction from the third position to the fourth position is opposite to the first direction.
手書き入力を行なう手が右手または左手かを表す手書き情報を導出する導出手段と、
前記画像の種類を検出する種類検出手段と、
前記表示手段が第1画像の手書き入力を第1位置に受け付けた後、前記表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および前記画像の種類に応じた前記表示領域の端部または該端部の近傍に前記第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、前記第2画像に基づく第4画像を前記第3位置に表示させる表示制御手段と、を備え、
前記第3位置から前記第4位置までの方向は、前記第1方向と逆方向である、情報処理装置。 Display means for receiving handwritten input of an image in a display area, and displaying an image related to the handwritten input at a position where the handwritten input is received;
Deriving means for deriving handwritten information indicating whether the hand performing handwriting input is the right hand or the left hand;
Type detecting means for detecting the type of the image;
After the display means accepts the handwritten input of the first image at the first position, and when the display means accepts the handwritten input of the second image at the second position, the second position from the first position to the second position. After the third image based on the first image is displayed at the third position at or near the end of the display area according to one direction and the type of the image, the third image is displayed at the fourth position. And display control means for displaying a fourth image based on the second image at the third position,
The information processing apparatus, wherein a direction from the third position to the fourth position is opposite to the first direction.
前記表示領域上の検出対象物を検出する対象物検出手段と、
前記表示手段が第1画像の手書き入力を第1位置に受け付けた後、前記表示手段が第2画像の手書き入力を第2位置に受け付け、前記対象物検出手段に検出された前記検出対象物が前記第1画像および前記第2画像に対向または略対向している場合、該第1位置から該第2位置までの第1方向に応じた前記表示領域の端部または該端部の近傍に前記第1画像に基づく第3画像を表示させ、その後、該第3画像の表示位置を前記第1方向と逆方向に移動させ、該端部または該端部の近傍に前記第2画像に基づく第4画像を表示する表示制御手段と、を備える情報処理装置。 Display means for receiving handwritten input of an image in a display area, and displaying an image related to the handwritten input at a position where the handwritten input is received;
Object detection means for detecting a detection object on the display area;
After the display means accepts the handwritten input of the first image at the first position, the display means accepts the handwritten input of the second image at the second position, and the detected object detected by the object detecting means is In the case where the first image and the second image are opposed or substantially opposed to each other, the end of the display area corresponding to the first direction from the first position to the second position or the vicinity of the end A third image based on the first image is displayed, and then the display position of the third image is moved in the direction opposite to the first direction, and the second image based on the second image is located near or near the end. An information processing apparatus comprising: display control means for displaying four images.
前記表示制御手段は、前記第1画像および前記第2画像の座標と、前記検出対象物の影の座標とにおいて、同一である座標の数が予め定められた閾値以上である場合に、前記対象物検出手段に検出された前記検出対象物が前記第1画像および前記第2画像に対向または略対向しているとする、請求項7記載の情報処理装置。 The object detection means detects the coordinates of the shadow of the detection object formed in the display area,
When the number of coordinates that are the same in the coordinates of the first image and the second image and the coordinates of the shadow of the detection target is equal to or greater than a predetermined threshold, the display control means The information processing apparatus according to claim 7, wherein the detection target detected by an object detection unit is opposed to or substantially opposed to the first image and the second image.
手書き入力を行なう手が右手または左手かを表す手書き情報を導出するステップと、
前記表示手段が第1画像の手書き入力を第1位置に受け付けた後、前記表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および前記手書き情報に応じた前記表示領域の端部または該端部の近傍に前記第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、前記第2画像に基づく第4画像を前記第3位置に表示させるステップと、を備え、
前記第3位置から前記第4位置までの方向は、前記第1方向と逆方向である、表示方法。 A display method that accepts handwritten input of an image in a display area and displays an image related to the handwritten input at a position where the handwritten input is received,
Deriving handwritten information indicating whether the hand performing handwriting input is a right hand or a left hand;
After the display means accepts the handwritten input of the first image at the first position, and when the display means accepts the handwritten input of the second image at the second position, the second position from the first position to the second position. The third image based on the first image is displayed at the third position at or near the end of the display area corresponding to the one direction and the handwritten information, and then the third image is set at the fourth position. And displaying a fourth image based on the second image at the third position,
The display method, wherein a direction from the third position to the fourth position is opposite to the first direction.
前記プログラムは、コンピュータに、
手書き入力を行なう手が右手または左手かを表す手書き情報を導出するステップと、
前記表示手段が第1画像の手書き入力を第1位置に受け付けた後、前記表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および前記手書き情報に応じた前記表示領域の端部または該端部の近傍に前記第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、前記第2画像に基づく第4画像を前記第3位置に表示させるステップと、を実行させ、
前記第3位置から前記第4位置までの方向は、前記第1方向と逆方向である、プログラム。 A program that accepts handwritten input of an image in a display area, and causes the computer to display an image related to the handwritten input at a position where the handwritten input is received,
The program is stored in a computer.
Deriving handwritten information indicating whether the hand performing handwriting input is a right hand or a left hand;
After the display means accepts the handwritten input of the first image at the first position, and when the display means accepts the handwritten input of the second image at the second position, the second position from the first position to the second position. The third image based on the first image is displayed at the third position at or near the end of the display area corresponding to the one direction and the handwritten information, and then the third image is set at the fourth position. Displaying a fourth image based on the second image at the third position, and
A program in which a direction from the third position to the fourth position is opposite to the first direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012155677A JP5972082B2 (en) | 2012-07-11 | 2012-07-11 | Information processing apparatus, display method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012155677A JP5972082B2 (en) | 2012-07-11 | 2012-07-11 | Information processing apparatus, display method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014016943A true JP2014016943A (en) | 2014-01-30 |
JP5972082B2 JP5972082B2 (en) | 2016-08-17 |
Family
ID=50111533
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012155677A Active JP5972082B2 (en) | 2012-07-11 | 2012-07-11 | Information processing apparatus, display method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5972082B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016046953A1 (en) * | 2014-09-26 | 2016-03-31 | 株式会社 東芝 | Electronic device, method, and program |
JP2016081302A (en) * | 2014-10-16 | 2016-05-16 | キヤノン株式会社 | Display control apparatus, control method thereof, program, and recording medium |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0619612A (en) * | 1992-07-01 | 1994-01-28 | Matsushita Electric Ind Co Ltd | Pen input/menu display device |
JP2001357355A (en) * | 2000-06-13 | 2001-12-26 | Fujitsu Ltd | Device and method for input of handwritten character and recording medium with program for execution of the method recorded therein |
JP2006268263A (en) * | 2005-03-23 | 2006-10-05 | Hitachi Software Eng Co Ltd | Electronic board system |
JP2011028560A (en) * | 2009-07-27 | 2011-02-10 | Sony Corp | Information processing apparatus, display method, and display program |
JP2011242900A (en) * | 2010-05-14 | 2011-12-01 | Sharp Corp | Character handwriting input device |
JP2012032961A (en) * | 2010-07-29 | 2012-02-16 | Brother Ind Ltd | Image display device, image display method and image display program |
-
2012
- 2012-07-11 JP JP2012155677A patent/JP5972082B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0619612A (en) * | 1992-07-01 | 1994-01-28 | Matsushita Electric Ind Co Ltd | Pen input/menu display device |
JP2001357355A (en) * | 2000-06-13 | 2001-12-26 | Fujitsu Ltd | Device and method for input of handwritten character and recording medium with program for execution of the method recorded therein |
JP2006268263A (en) * | 2005-03-23 | 2006-10-05 | Hitachi Software Eng Co Ltd | Electronic board system |
JP2011028560A (en) * | 2009-07-27 | 2011-02-10 | Sony Corp | Information processing apparatus, display method, and display program |
JP2011242900A (en) * | 2010-05-14 | 2011-12-01 | Sharp Corp | Character handwriting input device |
JP2012032961A (en) * | 2010-07-29 | 2012-02-16 | Brother Ind Ltd | Image display device, image display method and image display program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016046953A1 (en) * | 2014-09-26 | 2016-03-31 | 株式会社 東芝 | Electronic device, method, and program |
JPWO2016046953A1 (en) * | 2014-09-26 | 2017-07-27 | 株式会社東芝 | Electronic device, method and program |
JP2016081302A (en) * | 2014-10-16 | 2016-05-16 | キヤノン株式会社 | Display control apparatus, control method thereof, program, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP5972082B2 (en) | 2016-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9582106B2 (en) | Method and system of providing a picture password for relatively smaller displays | |
US10444908B2 (en) | Virtual touchpads for wearable and portable devices | |
JP6161078B2 (en) | Detection of user input at the edge of the display area | |
US8749497B2 (en) | Multi-touch shape drawing | |
JP2016530602A (en) | Improving user authentication or improving user authentication | |
US20150078586A1 (en) | User input with fingerprint sensor | |
US9300659B2 (en) | Method and system of providing a picture password for relatively smaller displays | |
EP3149645A2 (en) | Device for entering graphical password on small displays with cursor offset | |
US20130212511A1 (en) | Apparatus and method for guiding handwriting input for handwriting recognition | |
WO2017063763A1 (en) | Secure biometric authentication | |
US9678608B2 (en) | Apparatus and method for controlling an interface based on bending | |
JP6272069B2 (en) | Information processing apparatus, information processing method, computer program, and recording medium | |
JP5972082B2 (en) | Information processing apparatus, display method, and program | |
JP2015018413A (en) | Portable terminal, image display method, and program | |
EP3125089A1 (en) | Terminal device, display control method, and program | |
JP6757114B2 (en) | Input display device | |
JP5927090B2 (en) | Information processing apparatus, display method, and program | |
JP5411912B2 (en) | Character string confirmation device and character string confirmation program | |
US20180039810A1 (en) | Semiconductor device | |
CN112395925B (en) | Under-screen fingerprint registration method and electronic device | |
JP5805910B2 (en) | Touch panel system | |
JP6549776B2 (en) | Input display | |
JP2014049023A (en) | Input device | |
JP5891898B2 (en) | Information processing apparatus, program, and information processing method | |
JP5618634B2 (en) | Information processing apparatus and operation method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150701 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160407 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160412 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160602 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160628 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160712 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5972082 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |