JP2014016943A - Information processor, display method, and program - Google Patents

Information processor, display method, and program Download PDF

Info

Publication number
JP2014016943A
JP2014016943A JP2012155677A JP2012155677A JP2014016943A JP 2014016943 A JP2014016943 A JP 2014016943A JP 2012155677 A JP2012155677 A JP 2012155677A JP 2012155677 A JP2012155677 A JP 2012155677A JP 2014016943 A JP2014016943 A JP 2014016943A
Authority
JP
Japan
Prior art keywords
image
display
input
handwritten
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012155677A
Other languages
Japanese (ja)
Other versions
JP5972082B2 (en
Inventor
Toshiyoshi Itoga
利由 糸賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012155677A priority Critical patent/JP5972082B2/en
Publication of JP2014016943A publication Critical patent/JP2014016943A/en
Application granted granted Critical
Publication of JP5972082B2 publication Critical patent/JP5972082B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To display an image inputted by handwriting in a different area even though the image handwritten and inputted by a user is covered with the user's hand or the like.SOLUTION: An information processor includes: display means for receiving a handwriting input of an image within a display area and displaying the image relating to the handwriting input at a position having received the handwriting input; derivation means for deriving handwriting information representing that a hand for performing a handwriting input is a right hand or a left hand; and display control means for displaying a third image at a fourth position after displaying a third image based on a first image at a third position at an end part of a display area corresponding to a first direction from a first position to a second position and the handwriting information or near the end part in a case where the display means receives a handwriting input of a second image at the second position after the display means receives a handwriting input of the first image at the first position, and displaying a fourth image based on the second image at the third position. A direction from the third position to the fourth position is an opposite direction from the first direction.

Description

本発明は、情報処理装置、表示方法、およびプログラムに関し、特にユーザが手書き入力した情報を表示する情報処理装置、表示方法、およびプログラムに関する。   The present invention relates to an information processing device, a display method, and a program, and more particularly, to an information processing device, a display method, and a program that display information handwritten by a user.

近年、ユーザが手書き入力可能なタッチパネルなどの表示デバイスを含む情報処理装置が広く流通されている。ユーザが指やスタイラスペンなどにより、該表示デバイスに対して文字などを入力(記述)すると、該表示デバイスは、該入力された位置に該入力された文字などを表示する。   In recent years, information processing apparatuses including a display device such as a touch panel on which a user can input by handwriting have been widely distributed. When a user inputs (describes) characters or the like to the display device with a finger or a stylus pen, the display device displays the input characters or the like at the input position.

例えば、特開2010−287032号公報(特許文献1)は、「ユーザが右利きか左利きかを判定し、該判定結果に基づいて、画面部品の表示位置を決定する」技術を開示している。   For example, Japanese Patent Laying-Open No. 2010-287032 (Patent Document 1) discloses a technique of “determining whether a user is right-handed or left-handed and determining a display position of a screen component based on the determination result”. .

特開2010−287032号公報JP 2010-287032 A

上記技術では、例えば、左利きのユーザがタッチパネルに対して、日本語や英語を手書き入力すると、一般的に右方向に該日本語や英語を手書き入力する。そうすると、スタイラスペンを保持するユーザの手が手書き入力した文字を覆うために、ユーザは手書き入力した文字を目視できない、という問題があった。   In the above technique, for example, when a left-handed user inputs Japanese or English handwritten on the touch panel, the Japanese or English is generally input in the right direction. Then, since the user's hand holding the stylus pen covers the handwritten character, the user cannot visually recognize the handwritten character.

本発明は、このような問題を解決するためになされたものであって、その目的は、ユーザが手書き入力した画像が、ユーザの手などにより覆われたとしても、当該ユーザが手書き入力した画像を別の領域に表示する情報処理装置、表示方法、プログラムを提供することである。   The present invention has been made to solve such a problem, and the purpose of the present invention is to provide an image handwritten by the user even if the image handwritten by the user is covered by the user's hand or the like. An information processing apparatus, a display method, and a program for displaying the image in another area.

本発明のある局面に従う情報処理装置は、表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示手段と、手書き入力を行なう手が右手または左手かを表す手書き情報を導出する導出手段と、表示手段が第1画像の手書き入力を第1位置に受け付けた後、表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および手書き情報に応じた表示領域の端部または該端部の近傍に第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、第2画像に基づく第4画像を第3位置に表示させる表示制御手段と、を備え、第3位置から第4位置までの方向は、第1方向と逆方向である。   An information processing apparatus according to an aspect of the present invention receives a handwritten input of an image within a display area, displays a display unit that displays an image related to the handwritten input at a position where the handwritten input is received, and a hand that performs the handwritten input Deriving means for deriving handwritten information representing right hand or left hand and the display means accepting the handwritten input of the second image at the second position after the displaying means accepts the handwritten input of the first image at the first position After the third image based on the first image is displayed at the third position at or near the end of the display area corresponding to the first direction from the first position to the second position and the handwritten information Display control means for displaying the third image at the fourth position and displaying the fourth image based on the second image at the third position, and the direction from the third position to the fourth position is the first The direction is opposite to the direction.

好ましくは、手書き情報が、左手であることを表し、かつ、第1方向がユーザから見てX軸正方向である場合に、表示制御手段は表示領域の端部を該ユーザから見て右側の端部とする。   Preferably, when the handwritten information represents the left hand and the first direction is the X-axis positive direction when viewed from the user, the display control means The end.

好ましくは、手書き情報が、右手であることを表し、かつ、第1方向がユーザから見てX軸負方向である場合に、表示制御手段は表示領域の端部を該ユーザから見て左側の端部とする。   Preferably, when the handwritten information represents the right hand and the first direction is the X-axis negative direction when viewed from the user, the display control means looks at the end of the display area on the left side when viewed from the user. The end.

本発明の異なる局面に従う情報処理装置は、表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示手段と、手書き入力を行なう手が右手または左手かを表す手書き情報を導出する導出手段と、画像の種類を検出する種類検出手段と、表示手段が第1画像の手書き入力を第1位置に受け付けた後、表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および画像の種類に応じた表示領域の端部または該端部の近傍に第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、第2画像に基づく第4画像を第3位置に表示させる表示制御手段と、を備え、第3位置から第4位置までの方向は、第1方向と逆方向である。   An information processing apparatus according to a different aspect of the present invention receives a handwritten input of an image within a display area, displays a display unit that displays an image related to the handwritten input at a position where the handwritten input is received, and a hand that performs the handwritten input Deriving means for deriving handwritten information representing right hand or left hand, type detecting means for detecting the type of image, and after the display means accepts handwriting input of the first image at the first position, the display means receives the second image. Is received at the second position, the first direction from the first position to the second position and the edge of the display area according to the type of image or the vicinity of the edge based on the first image Display control means for displaying the third image at the third position, then displaying the third image at the fourth position, and displaying the fourth image based on the second image at the third position; The direction from the position to the fourth position is It is a direction opposite direction.

好ましくは、導出手段は、手書き入力を行なう手が右手または左手かを検出することにより、手書き情報を生成する手書き検出手段を含む。   Preferably, the derivation means includes handwriting detection means for generating handwritten information by detecting whether a hand performing handwriting input is a right hand or a left hand.

好ましくは、導出手段は、手書き入力を行なう手が右手または左手かの設定を受け付けることにより、手書き情報を生成する表示手段を含む。   Preferably, the deriving means includes display means for generating handwritten information by accepting a setting of whether the hand performing handwriting input is a right hand or a left hand.

本発明の異なる局面に従う情報処理装置は、表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示手段と、表示領域上の検出対象物を検出する対象物検出手段と、表示手段が第1画像の手書き入力を第1位置に受け付けた後、表示手段が第2画像の手書き入力を第2位置に受け付け、対象物検出手段に検出された検出対象物が第1画像および第2画像に対向または略対向している場合、該第1位置から該第2位置までの第1方向に応じた表示領域の端部または該端部の近傍に第1画像に基づく第3画像を表示させ、その後、該第3画像の表示位置を第1方向と逆方向に移動させ、該端部または該端部の近傍に第2画像に基づく第4画像を表示する表示制御手段と、を備える。   An information processing apparatus according to a different aspect of the present invention receives a handwritten input of an image in a display area, displays an image related to the handwritten input at a position where the handwritten input is received, and a detection target on the display area After the object detecting means for detecting an object and the display means accept the handwritten input of the first image at the first position, the display means accepts the handwritten input of the second image at the second position and detected by the object detecting means. When the detected detection object faces or substantially opposes the first image and the second image, the end of the display area or the end of the end corresponding to the first direction from the first position to the second position A third image based on the first image is displayed in the vicinity, and then the display position of the third image is moved in the direction opposite to the first direction, and the second image based on the second image is located at or near the end. Display control means for displaying four images.

好ましくは、対象物検出手段は、表示領域にできた検出対象物の影の座標を検出し、表示制御手段は、第1画像および第2画像の座標と、検出対象物の影の座標とにおいて、同一である座標の数が予め定められた閾値以上である場合に、対象物検出手段に検出された検出対象物が第1画像および第2画像に対向または略対向しているとする。   Preferably, the object detection means detects the coordinates of the shadow of the detection object formed in the display area, and the display control means determines the coordinates of the first image and the second image and the coordinates of the shadow of the detection object. When the number of the same coordinates is equal to or greater than a predetermined threshold value, it is assumed that the detection target detected by the target detection unit faces or substantially faces the first image and the second image.

好ましくは、表示制御手段は、手書き入力を受け付けた複数の画像それぞれの位置と、該複数の画像それぞれに基づく該複数の画像それぞれの位置とが相対的に同一になるように、該複数の画像それぞれに基づく該複数の画像それぞれを表示させる。   Preferably, the display control means includes the plurality of images so that the positions of the plurality of images that have received handwritten input and the positions of the plurality of images based on the plurality of images are relatively the same. Each of the plurality of images based on each is displayed.

好ましくは、表示制御手段は、手書き入力された画像と、該手書き入力された画像に基づく画像とが重畳しないように、該手書き入力された画像に基づく画像に対して所定の処理を施して表示させる。   Preferably, the display control means performs a predetermined process on the image based on the handwritten input image so that the image based on the handwritten input image does not overlap with the image based on the handwritten input image. Let

好ましくは、所定の処理は、手書き入力された画像の大きさに応じて、該手書き入力された画像に基づく画像を縮小する処理を含む。   Preferably, the predetermined process includes a process of reducing an image based on the handwritten input image in accordance with a size of the handwritten input image.

好ましくは、所定の処理は、直近に手書き入力された画像に基づく画像を優先的に表示する処理を含む。   Preferably, the predetermined process includes a process of preferentially displaying an image based on an image input by handwriting most recently.

好ましくは、表示制御手段は、表示手段に2行以上の画像が手書き入力された場合に、該2行目以降の各々の行の最初の手書き入力された画像に基づく画像が表示される領域を表示する。   Preferably, when two or more lines of images are input by handwriting on the display means, the display control means displays an area in which an image based on the first handwritten input image of each line after the second line is displayed. indicate.

好ましくは、表示制御手段は、ユーザから見たY軸方向の、手書き入力された画像の位置に応じた表示領域の端部または該端部近傍に該画像に基づく画像を表示させる。   Preferably, the display control means displays an image based on the image at or near the end of the display area corresponding to the position of the image input in handwriting in the Y-axis direction as viewed from the user.

本発明の異なる局面に従う表示方法は、表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示方法であって、手書き入力を行なう手が右手または左手かを表す手書き情報を導出するステップと、表示手段が第1画像の手書き入力を第1位置に受け付けた後、表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および手書き情報に応じた表示領域の端部または該端部の近傍に第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、第2画像に基づく第4画像を第3位置に表示させるステップと、を備え、第3位置から第4位置までの方向は、第1方向と逆方向である。   A display method according to a different aspect of the present invention is a display method that accepts handwritten input of an image in a display area and displays an image related to the handwritten input at a position where the handwritten input is accepted, A step of deriving handwritten information indicating whether the hand is a right hand or a left hand, and when the display means accepts the handwritten input of the second image at the second position after the display means accepts the handwritten input of the first image at the first position After the third image based on the first image is displayed at the third position at or near the end of the display area corresponding to the first direction from the first position to the second position and the handwritten information Displaying the third image at the fourth position and displaying the fourth image based on the second image at the third position, and the direction from the third position to the fourth position is the first direction. The reverse direction.

本発明の異なる局面に従うプログラムは、表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像をコンピュータに表示させるプログラムであって、プログラムは、コンピュータに、手書き入力を行なう手が右手または左手かを表す手書き情報を導出するステップと、表示手段が第1画像の手書き入力を第1位置に受け付けた後、表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および手書き情報に応じた表示領域の端部または該端部の近傍に第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、第2画像に基づく第4画像を第3位置に表示させるステップと、を実行させ、第3位置から第4位置までの方向は、第1方向と逆方向である。   A program according to a different aspect of the present invention is a program that accepts handwritten input of an image within a display area, and causes a computer to display an image related to the handwritten input at a position where the handwritten input is accepted. Deriving handwritten information indicating whether the hand performing the handwriting input is the right hand or the left hand, and after the display means accepts the handwriting input of the first image at the first position, the display means performs the handwriting input of the second image. When received at two positions, a third image based on the first image is displayed in the first direction from the first position to the second position and the edge of the display area corresponding to the handwritten information or in the vicinity of the edge. And displaying the third image at the fourth position, and displaying the fourth image based on the second image at the third position, from the third position to the fourth position. Direction in a first direction and the opposite direction.

ある局面において、ユーザが手書き入力した画像が、ユーザの手などにより覆われたとしても、当該ユーザが手書き入力した画像を別の領域に表示できる。   In an aspect, even if an image handwritten by the user is covered by a user's hand, the image handwritten by the user can be displayed in another area.

この発明の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの発明に関する次の詳細な説明から明らかとなるであろう。   The above and other objects, features, aspects and advantages of the present invention will become apparent from the following detailed description of the present invention taken in conjunction with the accompanying drawings.

本実施形態の情報処理装置の概略を示した図である。It is the figure which showed the outline of the information processing apparatus of this embodiment. 本実施形態の情報処理装置のハードウェア構成例を示した図である。It is the figure which showed the hardware structural example of the information processing apparatus of this embodiment. 本実施形態の情報処理装置の機能構成例を示した図である。It is the figure which showed the function structural example of the information processing apparatus of this embodiment. 座標記憶部に記憶された座標の集合を模式的に示した図である。It is the figure which showed typically the set of the coordinates memorize | stored in the coordinate memory | storage part. 手書き検出部の検出手法例を示した図である。It is the figure which showed the example of the detection method of a handwriting detection part. 表示装置に表示される画面の一例を示した図である。It is the figure which showed an example of the screen displayed on a display apparatus. 他の実施形態の表示装置に表示される画面の一例を示した図である。It is the figure which showed an example of the screen displayed on the display apparatus of other embodiment. 他の実施形態の表示装置に表示される画面の一例を示した図である。It is the figure which showed an example of the screen displayed on the display apparatus of other embodiment. 実施形態1の処理フローの一例を示した図である。FIG. 3 is a diagram illustrating an example of a processing flow according to the first embodiment. 他の実施形態の情報処理装置の機能構成例を示した図である。It is the figure which showed the function structural example of the information processing apparatus of other embodiment. 操作画面の一例を示した図である。It is the figure which showed an example of the operation screen. 他の実施形態の情報処理装置の機能構成例を示した図である。It is the figure which showed the function structural example of the information processing apparatus of other embodiment. ユーザの手の影等を示した図である。It is the figure which showed the shadow etc. of a user's hand. 表示制御部がアシスト表示する条件の一例を示した図である。It is the figure which showed an example of the conditions on which a display control part carries out assist display. 他の実施形態の情報処理装置の機能構成例を示した図である。It is the figure which showed the function structural example of the information processing apparatus of other embodiment. 他の実施形態の情報処理装置の表示画面の一例を示した図である。It is the figure which showed an example of the display screen of the information processing apparatus of other embodiment. 他の実施形態の表示制御部の処理フローの一例を示した図である。It is the figure which showed an example of the processing flow of the display control part of other embodiment. 他の実施形態の情報処理装置の表示画面の一例を示した図である。It is the figure which showed an example of the display screen of the information processing apparatus of other embodiment. 他の実施形態の表示制御部の処理フローの一例を示した図である。It is the figure which showed an example of the processing flow of the display control part of other embodiment. 他の実施形態の情報処理装置の表示画面の一例を示した図である。It is the figure which showed an example of the display screen of the information processing apparatus of other embodiment.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してあり、それらの名称および機能も同じである。従って、重複説明を繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals, and their names and functions are also the same. Therefore, repeated description will not be repeated.

[概略]
図1を参照して、本実施形態の情報処理装置の概略について説明する。図1は、本実施形態の情報処理装置の概略を示した図である。図1の例では、ユーザは左利きであり、左手204でスタイラスペン202を把持し、情報処理装置の表示手段に対して、該スタイラスペン202で、画像を手書き入力している。
[Outline]
With reference to FIG. 1, the outline of the information processing apparatus of this embodiment will be described. FIG. 1 is a diagram schematically illustrating the information processing apparatus according to the present embodiment. In the example of FIG. 1, the user is left-handed, holds the stylus pen 202 with the left hand 204, and inputs an image by hand with the stylus pen 202 to the display unit of the information processing apparatus.

ここで、情報処理装置の表示手段は、ユーザから手書き入力を受け付けた位置に、該手書き入力された画像を表示させるものであり、例えばタッチパネルである。また、画像は、文字、記号、図形などを含む。図1の例では、画像は、「う」「え」の文字である。また、スタイラスペン202の他に、ユーザが表示領域(入力領域)312aに対して画像を手書き入力できれば、他の手段を用いてもよい。該他の手段とは、例えば、ユーザの指である。   Here, the display means of the information processing apparatus displays the handwritten input image at a position where the handwritten input is received from the user, and is, for example, a touch panel. The image includes characters, symbols, figures, and the like. In the example of FIG. 1, the image is the characters “U” and “E”. In addition to the stylus pen 202, other means may be used as long as the user can input an image by handwriting into the display area (input area) 312a. The other means is, for example, a user's finger.

本実施形態では、ユーザにより1つ目に手書き入力された画像を第1画像401とし、2つ目に手書き入力された画像を第2画像402とする。図1の例では、第1画像401は「う」の文字であり、第2画像402は「え」の文字である。また、ユーザが3文字目「お」以降を手書き入力する場合には、2文字目「え」を第1画像401とし、3文字目「お」を第2画像402とする。4文字目以降についても同様とする。   In the present embodiment, a first image 401 input by handwriting by the user is a first image 401, and a second image input by handwriting is a second image 402. In the example of FIG. 1, the first image 401 is a character “U”, and the second image 402 is a character “E”. When the user inputs the third character “O” and subsequent characters by handwriting, the second character “E” is the first image 401 and the third character “O” is the second image 402. The same applies to the fourth and subsequent characters.

なお、図1の例では、第1画像401や第2画像402を明確化するために、左手204およびスタイラスペン202を透明化している。   In the example of FIG. 1, the left hand 204 and the stylus pen 202 are made transparent in order to clarify the first image 401 and the second image 402.

また、ユーザがスタイラスペン202により、第1画像401を手書き入力された位置を第1位置401aとする。ユーザがスタイラスペン202により、第2画像402を手書き入力された位置を第2位置402aとする。また、第1位置401aから第2位置402aに向かう方向を「第1方向α」とする。つまり、ユーザは、第1方向αに向かって、第1画像401および第2画像402を手書き入力する。   Also, a position where the user has input the first image 401 by handwriting with the stylus pen 202 is defined as a first position 401a. A position where the user has input the second image 402 by handwriting with the stylus pen 202 is defined as a second position 402a. In addition, a direction from the first position 401a toward the second position 402a is referred to as a “first direction α”. That is, the user inputs the first image 401 and the second image 402 by handwriting in the first direction α.

また、第1画像401および第2画像402それぞれは、例えば、1つの独立した文字や記号である。また、本実施形態において、図1に示す原点、x軸、y軸、右端、左端、右方向、および左方向は、スタイラスペン202を扱う(手書き入力を行なう)ユーザから見た原点、x軸、y軸、右端、左端、右方向、および左方向である。   Each of the first image 401 and the second image 402 is, for example, one independent character or symbol. In the present embodiment, the origin, x-axis, y-axis, right end, left end, right direction, and left direction shown in FIG. 1 are the origin, x-axis viewed from the user who handles the stylus pen 202 (performs handwriting input). , Y-axis, right end, left end, right direction, and left direction.

図1に示すように、手書き入力する画像(第1画像401および第2画像402)が日本語であり、かつ、ユーザが左利きの場合には、該ユーザは、一般的に、該ユーザから見てX軸の正方向α(右方向)に第1画像402および第2画像402を手書き入力する。従って、ユーザは現在手書き入力している文字以前に手書き入力された文字が、ユーザの左手204により覆われることにより、ユーザは該画像を目視できない。図1の例では、ユーザが現在手書き入力している画像を「え」の文字である場合では、「ユーザは現在手書き入力している文字以前に手書き入力された画像」とは、「う」の文字である。   As shown in FIG. 1, when the images to be handwritten (the first image 401 and the second image 402) are in Japanese and the user is left-handed, the user is generally viewed from the user. Then, the first image 402 and the second image 402 are input by handwriting in the positive direction α (right direction) of the X axis. Therefore, the user cannot visually recognize the image because the user's left hand 204 covers a character input before handwriting input. In the example of FIG. 1, when the image currently input by handwriting is the character “e”, “the image input by handwriting before the character the user is currently handwriting input” is “U”. Is the character.

ユーザが直近に手書き入力した文字を目視できない場合には、手書き入力処理の効率が低下する場合がある。そこで、本実施形態の情報処理装置は、第1画像401および第2画像402の手書き入力を受け付けた場合に、表示領域312aの右端に第3画像403を表示させる。その後、第3画像403を第4位置404aに表示させ、第4画像404を第3位置403aに表示させる。   If the user cannot visually recognize the character handwritten recently, the efficiency of the handwriting input process may be reduced. Therefore, the information processing apparatus according to the present embodiment displays the third image 403 at the right end of the display area 312a when handwritten input of the first image 401 and the second image 402 is received. Thereafter, the third image 403 is displayed at the fourth position 404a, and the fourth image 404 is displayed at the third position 403a.

ここで、第3画像403は、第1画像401に基づくものである。図1の例では、第3画像403は、第1画像401「「う」の文字」と形状、大きさともに同一の画像である。また、第4画像404は、第2画像402に基づくものである。また、第4画像404は、第2画像402「「え」の文字」と形状、大きさともに同一の画像である。また、第3位置403aから第4位置404aに向かう方向βは第1方向αと反対方向である。また、第3画像403および第4画像404は枠210に囲まれて表示されることが好ましい。何故なら、ユーザは、手書き入力された画像(第1画像401および第2画像403)と、表示された画像(第3画像403および第4画像404)との区別がつきやすいからである。   Here, the third image 403 is based on the first image 401. In the example of FIG. 1, the third image 403 is an image having the same shape and size as the first image 401 “characters of“ U ””. The fourth image 404 is based on the second image 402. The fourth image 404 is an image having the same shape and size as the second image 402 “characters of“ E ””. Further, the direction β from the third position 403a toward the fourth position 404a is opposite to the first direction α. The third image 403 and the fourth image 404 are preferably displayed surrounded by a frame 210. This is because the user can easily distinguish between the handwritten input image (first image 401 and second image 403) and the displayed image (third image 403 and fourth image 404).

つまり、情報処理装置は、第1画像401および第2画像402の手書き入力を受け付ける度に、例えば、第3画像403および第4画像404を方向βにスクロール表示する。これにより、ユーザは、第1画像401および第2画像402がユーザの手などにより覆われたとしても、第3画像および第4画像404を目視することにより、第1画像および第2画像402を認識できる。また、本実施形態の情報処理装置は、X軸正方向の手書き入力を受け付ける場合に特に効果を奏する。   That is, the information processing apparatus scrolls and displays, for example, the third image 403 and the fourth image 404 in the direction β every time handwritten input of the first image 401 and the second image 402 is received. Thereby, even if the first image 401 and the second image 402 are covered by the user's hand or the like, the user views the first image and the second image 402 by viewing the third image and the fourth image 404. Can be recognized. In addition, the information processing apparatus according to the present embodiment is particularly effective when handwritten input in the X-axis positive direction is received.

[ハードウェア構成]
図2を参照して、本実施形態の情報処理装置100のハードウェア構成を説明する。図2は、情報処理装置100のハードウェア構成例を示したブロック図である。図2の例では、情報処理装置100は、CPU(Central Processing Unit)302と、RAM(Random Access Memory)304と、ROM(Read Only Memory)306と、EEPROM(Electronically Erasable and Programmable Read Only Memory)308と、通信部310と、表示装置312と、操作部314と、外部メディアI/F(Interface)部316と、を含む。
[Hardware configuration]
With reference to FIG. 2, the hardware configuration of the information processing apparatus 100 of the present embodiment will be described. FIG. 2 is a block diagram illustrating a hardware configuration example of the information processing apparatus 100. In the example of FIG. 2, the information processing apparatus 100 includes a CPU (Central Processing Unit) 302, a RAM (Random Access Memory) 304, a ROM (Read Only Memory) 306, and an EEPROM (Electronically Erasable and Programmable Read Only Memory) 308. A communication unit 310, a display device 312, an operation unit 314, and an external media I / F (Interface) unit 316.

CPU302は、ROM306に格納されているプログラムや各種データに基づいて、処理を行なう。RAM304は、ROM306から読み出された各種プログラムや各種データを一時保持する。ROM306は、情報処理装置100が、起動されるときに実行されるプログラムや各種データを格納する。   The CPU 302 performs processing based on programs and various data stored in the ROM 306. The RAM 304 temporarily stores various programs and various data read from the ROM 306. The ROM 306 stores programs and various data that are executed when the information processing apparatus 100 is activated.

通信部310は、他の通信機器と通信する。操作部314は、ユーザからの操作を受け付ける。表示装置312は、例えばタッチパネル機能を備えるディスプレイである。従って、表示装置312は、概念的に、操作部314の一部を含む。   The communication unit 310 communicates with other communication devices. The operation unit 314 receives an operation from the user. The display device 312 is a display having a touch panel function, for example. Therefore, the display device 312 conceptually includes a part of the operation unit 314.

外部メディアI/F部316は、情報処理装置100と、外部メディア318(例えばSD(Secure Digital)メモリーカードなど)とのインターフェースの役割を果たす。   The external media I / F unit 316 serves as an interface between the information processing apparatus 100 and an external medium 318 (for example, an SD (Secure Digital) memory card).

[実施形態1]
<機能構成例>
次に、図3を参照して、実施形態1の機能構成例について説明する。図3は、実施形態1の機能構成例を示した図である。また、以下では、画像を文字という場合もある。
[Embodiment 1]
<Functional configuration example>
Next, a functional configuration example of the first embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating a functional configuration example of the first embodiment. Hereinafter, the image may be referred to as a character.

図3の例では、情報処理装置100Aは、表示装置312と、座標検出部108と、表示制御部110と、座標記憶部112と、方向検出部114と、取得部116と、手書き検出部106と、を含む。表示装置312は、入力受付部102と表示部104とを含む。   In the example of FIG. 3, the information processing apparatus 100 </ b> A includes a display device 312, a coordinate detection unit 108, a display control unit 110, a coordinate storage unit 112, a direction detection unit 114, an acquisition unit 116, and a handwriting detection unit 106. And including. The display device 312 includes an input receiving unit 102 and a display unit 104.

入力受付部102および表示部104は例えば、それぞれ薄板形状である。表示装置312は、入力受付部102と表示部104とが積層されることにより構成される。また、表示装置312は、表示領域312a(図1参照)を含む。表示領域312aには、ユーザが手書き入力した第1画像等、様々な情報が表示される。図1の例では、入力受付部102の入力領域が表示領域312aである。   For example, the input receiving unit 102 and the display unit 104 each have a thin plate shape. The display device 312 is configured by stacking the input receiving unit 102 and the display unit 104. The display device 312 includes a display area 312a (see FIG. 1). Various information such as a first image handwritten by the user is displayed in the display area 312a. In the example of FIG. 1, the input area of the input receiving unit 102 is the display area 312a.

入力受付部102は、スタイラスペン202などにより、第1画像402(図1参照)の手書き入力操作などを受け付けるパネルである。ユーザは、スタイラスペン202を入力受付部102に接触させることにより、手書き入力操作を行なう。また、入力受付部102は、透明であり、ユーザは、入力受付部102の下層に配置される表示部104に表示される画像や情報を目視できる。   The input receiving unit 102 is a panel that receives a handwriting input operation or the like of the first image 402 (see FIG. 1) with the stylus pen 202 or the like. The user performs a handwriting input operation by bringing the stylus pen 202 into contact with the input receiving unit 102. Further, the input receiving unit 102 is transparent, and the user can visually check images and information displayed on the display unit 104 arranged below the input receiving unit 102.

座標検出部108は、ユーザから入力受付部102への手書き入力操作を受けると、表示領域312a内において、スタイラスペン202が接触された位置(点)の座標を所定時間(例えば、0.1秒)毎に検出する。座標検出部108は、検出した座標を表示制御部110および認識部118へ出力する。   When the coordinate detection unit 108 receives a handwriting input operation from the user to the input reception unit 102, the coordinate detection unit 108 determines the coordinates of the position (point) where the stylus pen 202 is touched in the display area 312a for a predetermined time (for example, 0.1 second). ) Detected every time. The coordinate detection unit 108 outputs the detected coordinates to the display control unit 110 and the recognition unit 118.

認識部118は、辞書記憶部111に記憶されている文字辞書、および、座標検出部108から出力された複数の座標に基づいて、手書き入力された文字を認識する。認識部118は、該文字の認識手法として、種々の認識手法を用いればよい。例えば、認識部118は、複数の座標と文字辞書とを用いて、パターンマッチング処理を行うことにより、手書き入力された文字を認識する。また、辞書記憶部111として、例えば、ROM306を用いればよい。   The recognition unit 118 recognizes a character input by handwriting based on the character dictionary stored in the dictionary storage unit 111 and the plurality of coordinates output from the coordinate detection unit 108. The recognition unit 118 may use various recognition methods as the character recognition methods. For example, the recognition unit 118 recognizes a character input by handwriting by performing a pattern matching process using a plurality of coordinates and a character dictionary. Further, as the dictionary storage unit 111, for example, a ROM 306 may be used.

座標記憶部112は、認識部118が認識した文字ごとに、座標の集合を記憶する。図4は、座標記憶部112に記憶された座標の集合を模式的に示した図である。図4を参照して、座標記憶部112の記憶形態を説明する。   The coordinate storage unit 112 stores a set of coordinates for each character recognized by the recognition unit 118. FIG. 4 is a diagram schematically showing a set of coordinates stored in the coordinate storage unit 112. A storage form of the coordinate storage unit 112 will be described with reference to FIG.

図4の例では、座標記憶部112は、第1画像である「う」の文字について、「う」の文字を構成する複数点それぞれの座標(8、6)(9、5)・・・を記憶している。また、座標記憶部112は、第1画像である「え」の文字について、「え」の文字を構成する複数点それぞれの座標座標(21、7)(22、6)・・・を記憶している。なお、図1で説明したように、原点、x軸、およびy軸は、スタイラスペン202を扱うユーザから見た原点、x軸、およびy軸である。   In the example of FIG. 4, the coordinate storage unit 112 has the coordinates (8, 6) (9, 5) of the plurality of points constituting the character “u” for the character “u” as the first image. Is remembered. Further, the coordinate storage unit 112 stores the coordinate coordinates (21, 7), (22, 6),... Of the plurality of points constituting the character “e” for the character “e” that is the first image. ing. As described with reference to FIG. 1, the origin, the x-axis, and the y-axis are the origin, the x-axis, and the y-axis viewed from the user who handles the stylus pen 202.

表示制御部110は、座標検出部108により検出された座標に基づいて、スタイラスペン202の手書き入力の軌跡を表示部104に表示する。ユーザは、表示部104に表示された手書き入力の軌跡(つまり第1画像402)を目視することにより、該ユーザが手書き入力した第1画像を認識できる。表示制御部110は、入力受付部102が手書き入力を受け付けた、表示部104の位置に該手書き入力された画像を表示する。   The display control unit 110 displays a handwriting input locus of the stylus pen 202 on the display unit 104 based on the coordinates detected by the coordinate detection unit 108. The user can recognize the first image input by handwriting by viewing the handwriting input locus (that is, the first image 402) displayed on the display unit 104. The display control unit 110 displays the handwritten input image at the position of the display unit 104 where the input receiving unit 102 has received the handwritten input.

≪方向検出≫
次に、方向検出部114による方向検出処理について説明する。方向検出部114は、座標記憶部112に記憶されている座標の集合に基づいて、第1方向α(図1参照)を検出する。ここで、第1方向αとは、ユーザにより画像が手書き入力される方向である。例えば、図1の例では、第1方向αは、X軸の正方向(スタイラスペン202を扱うユーザから見て右方向)である。以下では、右方向、左方向、上方向、下方向は、全てスタイラスペン202を扱うユーザから見た方向であるとする。
≪Direction detection≫
Next, direction detection processing by the direction detection unit 114 will be described. The direction detection unit 114 detects the first direction α (see FIG. 1) based on the set of coordinates stored in the coordinate storage unit 112. Here, the first direction α is a direction in which an image is input by handwriting by the user. For example, in the example of FIG. 1, the first direction α is the positive direction of the X axis (right direction as viewed from the user who handles the stylus pen 202). Hereinafter, the right direction, the left direction, the upward direction, and the downward direction are all directions viewed from the user who handles the stylus pen 202.

また、右方向は、X軸の正方向であり、左方向は、X軸の負方向である。また、上方向は、Y軸の正方向であり、下方向はY軸の負方向である。   Further, the right direction is the positive direction of the X axis, and the left direction is the negative direction of the X axis. Further, the upward direction is the positive direction of the Y axis, and the downward direction is the negative direction of the Y axis.

次に、方向検出部114による方向検出手法の具体例について説明する。方向検出部114は、基準となる文字(図4の例では、「う」)の、X座標の最大値Xmax1およびY座標の最大値Ymax1を取得する。また、方向検出部114は、該基準となる文字の次に、認識部118により認識された文字(図4の例では、「え」)の、X座標の最大値Xmax2およびY座標の最大値Ymax2を取得する。   Next, a specific example of the direction detection method by the direction detection unit 114 will be described. The direction detection unit 114 acquires the maximum value Xmax1 of the X coordinate and the maximum value Ymax1 of the Y coordinate of the reference character (“U” in the example of FIG. 4). In addition, the direction detection unit 114, after the reference character, the maximum value Xmax2 of the X coordinate and the maximum value of the Y coordinate of the character recognized by the recognition unit 118 ("e" in the example of FIG. 4). Ymax2 is acquired.

そして、方向検出部114は、Xmax1とXmax2とを比較する。ここで、方向検出部114が、Xmax1≦Xmax2であると判断すると、方向検出部114は、第1方向が右方向であると判断する。一方、方向検出部114が、Xmax1>Xmax2であると判断すると、方向検出部114は、第1方向が左方向であると判断する。   Then, the direction detection unit 114 compares Xmax1 and Xmax2. Here, when the direction detection unit 114 determines that Xmax1 ≦ Xmax2, the direction detection unit 114 determines that the first direction is the right direction. On the other hand, when the direction detection unit 114 determines that Xmax1> Xmax2, the direction detection unit 114 determines that the first direction is the left direction.

また、方向検出部114は、Ymax1とYmax2とを比較する。ここで、方向検出部114が、Ymax1≦Ymax2であると判断すると、方向検出部114は、第1方向が上方向であると判断する。一方、方向検出部114が、Ymax1>Ymax2であると判断すると、方向検出部114は、第1方向が下方向であると判断する。   In addition, the direction detection unit 114 compares Ymax1 and Ymax2. If the direction detection unit 114 determines that Ymax1 ≦ Ymax2, the direction detection unit 114 determines that the first direction is the upward direction. On the other hand, when the direction detection unit 114 determines that Ymax1> Ymax2, the direction detection unit 114 determines that the first direction is the downward direction.

また、方向検出部114は、基準となる文字の、X座標の平均値Xavg1およびY座標の平均値Yavg1を取得する。また、方向検出部114は、該基準となる文字の次に手書き入力された文字の、X座標の平均値Xavg2およびY座標の平均値Yavg2を取得する。   In addition, the direction detection unit 114 acquires the average value Xavg1 of the X coordinate and the average value Yavg1 of the Y coordinate of the reference character. In addition, the direction detection unit 114 acquires the average value Xavg2 of the X coordinate and the average value Yavg2 of the Y coordinate of the character input by handwriting next to the reference character.

そして、方向検出部114は、Xavg1とXavg2とを比較する。ここで、方向検出部114が、Xavg1≦Xavg2であると判断すると、方向検出部114は、第1方向が右方向であると判断する。一方、方向検出部114が、Xavg1>Xavg2であると判断すると、方向検出部114は、第1方向が左方向であると判断する。   Then, the direction detection unit 114 compares Xavg1 and Xavg2. Here, when the direction detection unit 114 determines that Xavg1 ≦ Xavg2, the direction detection unit 114 determines that the first direction is the right direction. On the other hand, when the direction detection unit 114 determines that Xavg1> Xavg2, the direction detection unit 114 determines that the first direction is the left direction.

また、方向検出部114は、Yavg1とYavg2とを比較する。ここで、方向検出部114が、Yavg1≦Yavg2であると判断すると、方向検出部114は、第1方向が上方向であると判断する。一方、方向検出部114が、Yavg1>Yavg2であると判断すると、方向検出部114は、第1方向が下方向であると判断する。   In addition, the direction detection unit 114 compares Yavg1 and Yavg2. When the direction detection unit 114 determines that Yavg1 ≦ Yavg2, the direction detection unit 114 determines that the first direction is the upward direction. On the other hand, when the direction detection unit 114 determines that Yavg1> Yavg2, the direction detection unit 114 determines that the first direction is the downward direction.

この方向検出部114の方向検出手法により、第1方向α(図1参照)を検出できる。方向検出部114は、第1方向を検出して、該第1方向を表す方向情報を生成する。該生成された方向情報は、表示制御部110へ出力される。   The first direction α (see FIG. 1) can be detected by the direction detection method of the direction detection unit 114. The direction detection unit 114 detects the first direction and generates direction information representing the first direction. The generated direction information is output to the display control unit 110.

≪手書き情報≫
次に、手書き情報について説明する。手書き情報は、右手または左手のうち、ユーザがスタイラスペン202を保持している手を表す情報である。以下に、該手書き情報の生成手法について説明する。また、本明細書において、手書き情報が右手を表す情報である場合には、「ユーザは右利きである」と言及し、手書き情報が左手を表す情報である場合には、「ユーザは左利きである」と言及する場合がある。
≪Handwritten information≫
Next, handwritten information will be described. The handwritten information is information representing the hand holding the stylus pen 202 of the right hand or the left hand. Hereinafter, a method for generating the handwritten information will be described. Further, in this specification, when the handwritten information is information representing the right hand, it is referred to as “the user is right-handed”, and when the handwritten information is information representing the left hand, “the user is left-handed”. May be mentioned.

本実施形態では、手書き検出部106は、表示領域312a上のユーザの手の位置を検出する。ここで、「表示領域312a上」は、ユーザの手が表示領域312aに接触している場合もあり、また、ユーザの手が表示領域312aから離れている場合もある。   In the present embodiment, the handwriting detection unit 106 detects the position of the user's hand on the display area 312a. Here, “on the display area 312a” may mean that the user's hand is in contact with the display area 312a, or the user's hand is far from the display area 312a.

また、ユーザの手の位置の検出方法として、例えば、赤外線や超音波をプローブに利用する場合であれば、手書き検出部106を表示装置312の周囲に配置し、赤外線や超音波の反射波の変動を電気信号として検出する。   Further, as a method for detecting the position of the user's hand, for example, when infrared rays or ultrasonic waves are used for the probe, the handwriting detection unit 106 is arranged around the display device 312 and the reflected waves of infrared rays and ultrasonic waves are detected. The fluctuation is detected as an electric signal.

図5を参照して手書き検出部106の検出手法の一例を説明する。図5は、手書き検出部106の検出手法例を示した図である。図5の例では、手書き検出部106は、表示領域312aの周囲に配置された赤外線センサを含む。また、赤外センサのセンサ領域を右半分と左半分とに分ける。左半分の領域を領域106aとし、右半分の領域を領域106bとする。   An example of the detection method of the handwriting detection unit 106 will be described with reference to FIG. FIG. 5 is a diagram illustrating a detection method example of the handwriting detection unit 106. In the example of FIG. 5, the handwriting detection unit 106 includes an infrared sensor arranged around the display area 312a. The sensor area of the infrared sensor is divided into a right half and a left half. The left half area is referred to as area 106a, and the right half area is referred to as area 106b.

赤外線センサで赤外線の反射波を検出することにより、ユーザの手が、赤外線センサ上にあることが分かる。手書き検出部106は、赤外線センサからの反射波の検出信号が領域106aからのものか、領域106bからのものかを判定する。手書き検出部106が、該検出信号が、領域106aからのものである、と判断すると、手書き検出部106は、ユーザがスタイラスペン202を持つ手が左手である旨を表す手書き情報を生成する。一方、手書き検出部106が、該検出信号が、領域106bからのものである、と判断すると、手書き検出部106は、ユーザがスタイラスペン202を持つ手が右手である旨を表す手書き情報を生成する。   By detecting an infrared reflected wave with the infrared sensor, it is understood that the user's hand is on the infrared sensor. The handwriting detection unit 106 determines whether the detection signal of the reflected wave from the infrared sensor is from the region 106a or the region 106b. When the handwriting detection unit 106 determines that the detection signal is from the region 106a, the handwriting detection unit 106 generates handwritten information indicating that the user's hand holding the stylus pen 202 is the left hand. On the other hand, when the handwriting detection unit 106 determines that the detection signal is from the region 106b, the handwriting detection unit 106 generates handwritten information indicating that the user's hand holding the stylus pen 202 is the right hand. To do.

また、別の検出方式として、手書き検出部106は撮像装置を含み、該撮像装置で撮像した画像に対して画像処理を施す。手書き検出部106は該画像処理結果に基づいて、ユーザの手の位置を検出する。   As another detection method, the handwriting detection unit 106 includes an imaging device, and performs image processing on an image captured by the imaging device. The handwriting detection unit 106 detects the position of the user's hand based on the image processing result.

また、別の検出方式として、手書き検出部106を、光センサ液晶としてもよい。光センサ液晶を簡単に説明すると、表示装置312は各画素内に駆動回路の他に光センサが内蔵される。そして、手書き検出部106は、ユーザの手の影を検出することにより、表示領域312a上のユーザの手の位置を検出する。   As another detection method, the handwriting detection unit 106 may be an optical sensor liquid crystal. The optical sensor liquid crystal will be briefly described. The display device 312 includes an optical sensor in addition to a driving circuit in each pixel. The handwriting detection unit 106 detects the position of the user's hand on the display area 312a by detecting the shadow of the user's hand.

また、別の検出方式として、該スタイラスペン202が傾いてる方向を検出する傾き検出部(例えば、傾き検出センサや加速度センサ)を含ませるようにしてもよい。そして、手書き検出部106は、スタイラスペン202の入力動作中に、該傾き検出部が検出した傾き方向をスタイラスペン202から受信する。そして、手書き検出部106は、該傾き方向に基づいて、手書き情報を生成する。手書き検出部106が、スタイラスペン202が左に傾いていることを検出すると、ユーザは左手でスタイラスペン202を保持していることを表す手書き情報を生成する。また、手書き検出部106が、スタイラスペン202が右に傾いていることを検出すると、ユーザは右手でスタイラスペン202を保持していることを表す手書き情報を生成する。   As another detection method, an inclination detection unit (for example, an inclination detection sensor or an acceleration sensor) that detects the direction in which the stylus pen 202 is inclined may be included. The handwriting detecting unit 106 receives the tilt direction detected by the tilt detecting unit from the stylus pen 202 during the input operation of the stylus pen 202. Then, the handwriting detection unit 106 generates handwritten information based on the tilt direction. When the handwriting detection unit 106 detects that the stylus pen 202 is tilted to the left, the user generates handwritten information indicating that the stylus pen 202 is held with the left hand. Further, when the handwriting detection unit 106 detects that the stylus pen 202 is tilted to the right, the user generates handwritten information indicating that the stylus pen 202 is held with the right hand.

手書き検出部106による、手書き情報の生成手法についてはこれらに限られず、他の生成手法を用いてもよい。   The handwriting information generation method by the handwriting detection unit 106 is not limited to these, and other generation methods may be used.

取得部116は、手書き検出部106が生成した手書き情報を取得する。取得部116は、手書き情報を取得すると、表示制御部110に出力する。   The acquisition unit 116 acquires the handwritten information generated by the handwriting detection unit 106. When acquiring the handwritten information, the acquiring unit 116 outputs the handwritten information to the display control unit 110.

≪表示態様≫
次に、図6を参照して、表示制御部110による、第3画像403および第4画像404の表示態様について説明する。上述のように、第3画像403および第4画像404それぞれは、第1画像401および第2画像402に基づく。また、以下では、図1に示すように、第3画像403および第4画像404を表示することを「アシスト表示」という。また、ユーザが手書き入力した画像を入力画像とする。つまり入力画像は、第1画像401および第2画像402を含む。また、アシスト表示された画像をアシスト表示画像とする。つまり、アシスト表示画像は、第3画像403および第4画像404を含む。
≪Display mode≫
Next, display modes of the third image 403 and the fourth image 404 by the display control unit 110 will be described with reference to FIG. As described above, the third image 403 and the fourth image 404 are based on the first image 401 and the second image 402, respectively. In the following, displaying the third image 403 and the fourth image 404 as shown in FIG. 1 is referred to as “assist display”. In addition, an image handwritten by the user is set as an input image. That is, the input image includes the first image 401 and the second image 402. In addition, an assist display image is set as an assist display image. That is, the assist display image includes the third image 403 and the fourth image 404.

図6(A)に示すように、ユーザが、スタイラスペン202で、表示装置312に最初の第1画像「う」を手書き入力したとする。この場合には、ユーザが第1画像401である「う」を手書き入力した始めたときに、取得部116は、手書き情報を取得する。この場合には、取得部116は、ユーザは左手でスタイラスペン202を保持していることを表す手書き情報を取得する。   As shown in FIG. 6A, it is assumed that the user inputs the first first image “U” by handwriting on the display device 312 with the stylus pen 202. In this case, when the user starts to input the first image 401 “U” by handwriting, the acquiring unit 116 acquires handwritten information. In this case, the acquisition unit 116 acquires handwritten information indicating that the user holds the stylus pen 202 with the left hand.

そうすると、座標検出部108は、ユーザが手書き入力したことにより、スタイラスペン202が接触した座標を検出する。そして、認識部118は、文字認識を行なうことにより、「う」の文字が手書き入力されたことを認識する。そして、認識部118は、第1画像401が認識されたことを示す、第1認識信号を表示制御部110へ出力する。   Then, the coordinate detection unit 108 detects the coordinates touched by the stylus pen 202 when the user performs handwriting input. Then, the recognition unit 118 recognizes that the character “u” has been input by handwriting by performing character recognition. Then, the recognition unit 118 outputs a first recognition signal indicating that the first image 401 has been recognized to the display control unit 110.

次に、ユーザが第2画像402(2個目の画像)である「え」を手書き入力したとする。この場合には、ユーザは「え」を手書き入力している途中に、方向検出部114は、ユーザの第1方向αを検出する。図6の例では、「え」の手書き入力始めの点のX座標は、「う」を構成する複数の点のうち、最大のX座標よりも大きい。従って、方向検出部114は、第1方向は右方向であることを表す方向情報を生成し、表示制御部110へ送信する。   Next, it is assumed that the user inputs “e”, which is the second image 402 (second image), by handwriting. In this case, the direction detecting unit 114 detects the first direction α of the user while the user is inputting “e” by handwriting. In the example of FIG. 6, the X coordinate of the point at the beginning of handwriting input of “E” is larger than the maximum X coordinate among a plurality of points constituting “U”. Therefore, the direction detection unit 114 generates direction information indicating that the first direction is the right direction, and transmits the direction information to the display control unit 110.

表示制御部110は、方向情報に基づいて、アシスト表示する始点210aを決定する。表示制御部110は、方向情報および手書き情報に応じた表示領域312aの端部を決定する。   The display control unit 110 determines the start point 210a for assist display based on the direction information. The display control unit 110 determines the end of the display area 312a according to the direction information and the handwritten information.

また、図6(B)を用いて、表示制御部110の端部の決定手法の詳細について説明する。図6(B)に示すように、第1位置401a(第1画像401の手書き入力受け付けた位置および第1画像401の表示位置)の重心を第1重心401bとする。第2位置402a(第2画像402の手書き入力受け付けた位置および第2画像402の表示位置)の重心を第2重心402bとする。   Details of the edge determination method of the display control unit 110 will be described with reference to FIG. As shown in FIG. 6B, the center of gravity of the first position 401a (the position where the handwriting input of the first image 401 is accepted and the display position of the first image 401) is defined as a first center of gravity 401b. The center of gravity of the second position 402a (the position where the handwriting input of the second image 402 is accepted and the display position of the second image 402) is defined as a second center of gravity 402b.

表示制御部110は、表示領域312aの左右の端部312bおよび312cのうち、第1重心401bから第2重心402bに向かう直線Lと交わる端部(図6(B)の例では、端部312c)を、アシスト表示する位置として決定する。   The display control unit 110 includes an end portion (in the example of FIG. 6B, the end portion 312c that intersects the straight line L from the first centroid 401b to the second centroid 402b among the left and right ends 312b and 312c of the display region 312a. ) Is determined as the assist display position.

ここで、方向情報が右方向であることを表す方向情報であり、かつ、手書き情報が左手を表す手書き情報である場合には、アシスト表示の始点は、表示領域310aの右端とする。何故なら、図1に示すように、左利きのユーザ(つまり、左手でスタイラスペン202を保持するユーザ)が右方向に文字などを手書き入力する場合には、右端からアシスト表示されることにより、ユーザは第1画像を手書き入力しながら該アシスト表示を目視しやすいからである。   Here, when the direction information is the direction information indicating the right direction and the handwritten information is the handwritten information indicating the left hand, the starting point of the assist display is the right end of the display area 310a. This is because, as shown in FIG. 1, when a left-handed user (that is, a user holding the stylus pen 202 with his left hand) inputs characters or the like in the right direction by handwriting, the user is assisted and displayed from the right end. This is because the assist display can be easily seen while inputting the first image by handwriting.

表示制御部110は、アシスト表示する始点210aを決定すると、該決定された始点210aに、枠210の端部210bを表示させる。これにより、ユーザはアシスト表示される箇所を明確に認識できる。   When the display control unit 110 determines the start point 210a for assist display, the display control unit 110 displays the end 210b of the frame 210 at the determined start point 210a. Thereby, the user can clearly recognize the place where the assist display is performed.

次に、図6(C)に示すように、ユーザが第2画像402である「え」を手書き入力している途中に、表示制御部110は、直近に手書き入力された第1画像401である「う」に基づく第3画像403である「う」の文字をアシスト表示する。また、アシスト表示する方向βは、第1方向αと逆方向である。なお、第1方向αは、方向検出部114により検出される。   Next, as illustrated in FIG. 6C, the display control unit 110 uses the first image 401 that has been input by handwriting most recently while the user is inputting the second image 402 “e” by handwriting. The character “U”, which is the third image 403 based on “U”, is displayed in an assist manner. The assist display direction β is opposite to the first direction α. Note that the first direction α is detected by the direction detection unit 114.

図6(C)に示すように、ユーザが直近に手書き入力した「う」の文字が、ユーザの手により覆われてしまい、ユーザは「う」の文字を目視できなくなる。そこで、本実施形態のように、「う」の文字をアシスト表示することにより、ユーザは直近に手書き入力した文字が「う」であることを認識できる。   As shown in FIG. 6C, the “U” character that the user recently input by handwriting is covered by the user's hand, and the user cannot see the “U” character. Therefore, as in the present embodiment, by assisting the display of the character “U”, the user can recognize that the character input by handwriting is “U”.

次に、図6(D)に示すように、ユーザが第2画像402である「え」を手書き入力し終わって、3つ目の画像「う」の手書き入力の途中に、表示制御部110は、直近に手書き入力された第2画像402である「え」に基づく第4画像404を第3位置403aにアシスト表示する。また、表示制御部110は、第3画像403を第4位置404aにアシスト表示する。上述のように、第3位置403aから第4位置404aに向かう方向βは、第1方向αと反対方向である。   Next, as illustrated in FIG. 6D, the user finishes handwriting input “e”, which is the second image 402, and in the middle of handwriting input of the third image “U”, the display control unit 110. Displays an assist display of the fourth image 404 based on “e”, which is the second image 402 most recently input by handwriting, at the third position 403a. In addition, the display control unit 110 assists and displays the third image 403 at the fourth position 404a. As described above, the direction β from the third position 403a toward the fourth position 404a is opposite to the first direction α.

ここで、表示制御部110による、図4(C)の状態から図4(D)の状態に遷移する際の、第3画像403および第4画像404の表示態様としては例えば2つの表示態様がある。   Here, as the display mode of the third image 403 and the fourth image 404 when the display control unit 110 transitions from the state of FIG. 4C to the state of FIG. 4D, for example, there are two display modes. is there.

1つ目の表示態様として、表示制御部110は、第3画像403(「う」の文字)の表示を維持しながら、該第3画像403を第3位置403aから第4位置404aまで移動させる。それと共に、表示制御部110は、第3位置403aに第4画像404を表示させる。つまり、表示制御部110は、方向βに第3画像403および第4画像404をスクロール表示する。   As a first display mode, the display control unit 110 moves the third image 403 from the third position 403a to the fourth position 404a while maintaining the display of the third image 403 (the character “U”). . At the same time, the display control unit 110 displays the fourth image 404 at the third position 403a. That is, the display control unit 110 scrolls the third image 403 and the fourth image 404 in the direction β.

2つ目の表示態様として、表示制御部110は、第3位置403aに表示されている第3画像403を非表示とし、第4位置404aに該第3画像403を表示させる。それと共に、表示制御部110は、第3位置403aに第4画像404を表示させる。   As a second display mode, the display control unit 110 hides the third image 403 displayed at the third position 403a and displays the third image 403 at the fourth position 404a. At the same time, the display control unit 110 displays the fourth image 404 at the third position 403a.

これにより、ユーザが入力画像を手書き入力する毎に、該入力画像に基づくアシスト表示画像が表示される。従って、ユーザは、入力画像がユーザの手により覆われて該入力画像を認識できなくても、アシスト表示画像を目視することにより、ユーザ自身が手書き入力した入力画像を認識できる。   Thereby, whenever the user inputs the input image by handwriting, an assist display image based on the input image is displayed. Therefore, even if the input image is covered by the user's hand and the input image cannot be recognized, the user can recognize the input image input by handwriting by viewing the assist display image.

また、入力受付部102が第2画像402の受付を完了し、次の画像「図6(D)の例では「う」の文字」を受け付ける際には、「え」の文字が第1画像401とし、「う」の文字が「第2画像402」として、表示制御部110は上述の処理を行う。   In addition, when the input reception unit 102 completes the reception of the second image 402 and receives the next image “character“ u ”in the example of FIG. 6D”, the character “e” is the first image. The display control unit 110 performs the above-described processing, assuming that the character “u” is “second image 402”.

また、第1画像401、第2画像402、第3画像403、第4画像404の表示態様を自然数N、Mを用いて説明する。図6(C)、(D)において、第N画像は第1画像401に対応し、第N+1画像は第2画像402に対応し、第N位置は第1位置401aに対応し、第N+1位置は第2位置402aに対応する。第M画像は第3画像403に対応し、第M+1画像は第4画像404に対応し、第M位置は第3位置403aに対応し、第M+1位置は第4位置404aに対応する。また、第1方向αは、第N位置から第N+1位置に向かう方向である。   The display modes of the first image 401, the second image 402, the third image 403, and the fourth image 404 will be described using natural numbers N and M. 6C and 6D, the Nth image corresponds to the first image 401, the N + 1th image corresponds to the second image 402, the Nth position corresponds to the first position 401a, and the N + 1th position. Corresponds to the second position 402a. The Mth image corresponds to the third image 403, the M + 1th image corresponds to the fourth image 404, the Mth position corresponds to the third position 403a, and the M + 1th position corresponds to the fourth position 404a. The first direction α is a direction from the Nth position toward the (N + 1) th position.

入力受付部102が第N画像の手書き入力を受け付け、第N+1画像の手書き入力を受け付けている途中に、表示制御部110は、第N画像に基づく画像である第M画像(第3画像403に対応)を第M位置(第3位置に対応)にアシスト表示する。また、入力受付部102が、第N+1画像(第4画像404に対応)の手書き入力の受付を完了し、第N+2画像の手書き入力を受け付けている途中に、表示制御部110は、第N+1画像に基づく画像である第M+1画像(第3画像403に対応)を第M位置(第3位置に対応)にアシスト表示する。   While the input receiving unit 102 receives the handwriting input of the Nth image and the handwriting input of the (N + 1) th image, the display control unit 110 displays the Mth image (the third image 403 as an image based on the Nth image). Assist) is displayed at the Mth position (corresponding to the third position). In addition, while the input reception unit 102 has completed the reception of the handwriting input of the (N + 1) th image (corresponding to the fourth image 404) and the handwriting input of the (N + 2) th image is being received, the display control unit 110 displays the (N + 1) th image. The M + 1th image (corresponding to the third image 403), which is an image based on the above, is assisted displayed at the Mth position (corresponding to the third position).

また、入力受付部102が第N画像〜第N+n(ただし、nは自然数)画像の手書き入力を受け付けた場合には、表示制御部110は、第N画像〜第N+nに基づく第M画像〜第M+n画像をアシスト表示する。また、第N画像の手書き入力を受け付けた位置第N位置から、第N+n画像の手書き入力を受け付けた第N+n位置へ向かう直線の方向α(第1方向)は、第M画像が表示される第M位置から、第M+n画像が表示される第M+n位置へ向かう方向βと逆方向となる。   When the input receiving unit 102 receives handwritten input of the Nth image to N + n (where n is a natural number) image, the display control unit 110 displays the Mth image to the Nth image based on the Nth image to the N + n. Assist display of M + n image. The straight line direction α (first direction) from the Nth position where the handwriting input of the Nth image is accepted to the N + n position where the handwriting input of the N + n image is accepted is the Mth image displayed. The direction β is opposite to the direction β from the M position toward the M + n position where the M + n image is displayed.

≪2行目以降のアシスト表示≫
以下では、図6(E)に示すように、ユーザにより手書き入力された画像(つまり、第1画像401および第2画像402)をまとめて「入力画像4001」とし、該入力画像に基づいてアシスト表示される画像をまとめて「アシスト表示画像4002」という。
≪Assist display after the second line≫
In the following, as shown in FIG. 6E, images input by handwriting by the user (that is, the first image 401 and the second image 402) are collectively referred to as an “input image 4001”, and assistance is performed based on the input image. The displayed images are collectively referred to as “assist display image 4002”.

次に、図6(E)に示すように、ユーザが下方向に入力画像4001を描画した場合の、表示制御部110などの処理について説明する。図6(E)に示すように、ユーザが下方向に入力画像4001である「あ」を手書き入力した場合に、方向検出部114は、第1方向αが下方向であることを検出する。そして、表示制御部110は、第2画像として、「あ」の文字をアシスト表示する。   Next, as shown in FIG. 6E, a process performed by the display control unit 110 and the like when the user draws the input image 4001 downward will be described. As illustrated in FIG. 6E, when the user inputs “A”, which is the input image 4001, in the downward direction, the direction detection unit 114 detects that the first direction α is the downward direction. Then, the display control unit 110 assists and displays the character “A” as the second image.

ここで、図6(E)に示すように、表示制御部110は、複数の入力画像4001それぞれの位置と、複数のアシスト表示画像4002それぞれの位置とが相対的に同一になるように、該アシスト表示画像4002をアシスト表示する。従って、ユーザは、入力画像4001が、複数行になる場合でも、複数の入力画像の位置関係を認識できる。   Here, as shown in FIG. 6E, the display control unit 110 is arranged so that the positions of the plurality of input images 4001 and the positions of the plurality of assist display images 4002 are relatively the same. The assist display image 4002 is displayed as an assist. Therefore, the user can recognize the positional relationship between the plurality of input images even when the input image 4001 has a plurality of lines.

≪カーソル表示≫
また、以下の説明では、アシスト表示画像4002が表示される領域(つまり、枠210内の領域)をアシスト表示領域208aとする。次に、スタイラスペン202により2行目以降の入力画像4001(図6(E)参照)が手書き入力される場合について説明する。図6(F)に示すように、表示制御部110は、2行目以降の入力画像4001「あ」が手書き入力された場合に、該2行目以降の各々の行の最初の入力画像4001に基づくアシスト表示画像4002が表示される領域(以下、「カーソル」という。)208bを表示する。ユーザは、カーソル208bを視認することにより、2行目以降を手書き入力した場合に、該2行目以降それぞれに手書き入力された最初の入力画像4001に対応するアシスト表示画像4002が表示される位置を認識できる。
≪Cursor display≫
In the following description, an area where the assist display image 4002 is displayed (that is, an area within the frame 210) is referred to as an assist display area 208a. Next, the case where the input image 4001 (see FIG. 6E) on the second and subsequent lines is input by handwriting with the stylus pen 202 will be described. As shown in FIG. 6F, when the input image 4001 “A” on the second and subsequent lines is input by handwriting, the display control unit 110 displays the first input image 4001 on each line on and after the second line. An area (hereinafter referred to as “cursor”) 208b in which an assist display image 4002 based on the above is displayed is displayed. When the user visually inputs the second and subsequent lines by visually recognizing the cursor 208b, the position where the assist display image 4002 corresponding to the first input image 4001 input by handwriting is displayed on each of the second and subsequent lines. Can be recognized.

カーソル208bについてさらに説明する。2行目以降各行にそれぞれ手書き入力された最初の入力画像4001(図6(E)(F)の例では「あ」の文字)について最初に手書き入力された点を開始点206aとする。表示制御部110は、開始点206aの座標を、座標検出部108から取得する。そして、表示制御部110は、既に手書き入力された文字(図6(F)の例では、「う,え,う」の文字)に対する開始点206aの位置を把握する。そして、表示制御部110は、既に表示されているアシスト表示画像4002(図6(F)の例では、「う,え,う」の文字)において、把握された該開始点206aの相対的位置と同一の位置の点(以下、「同一点」とする。)208cを含む領域をカーソル208bとする。   The cursor 208b will be further described. The first handwritten input point for the first input image 4001 (in the example of FIGS. 6E and 6F, “A” in FIG. 6E and FIG. 6F) input by handwriting in the second and subsequent lines is set as the start point 206a. The display control unit 110 acquires the coordinates of the start point 206a from the coordinate detection unit 108. Then, the display control unit 110 grasps the position of the start point 206a with respect to characters that have already been input by handwriting (in the example of FIG. 6F, the characters “U, E, U”). The display control unit 110 then recognizes the relative position of the start point 206a that has been grasped in the assist display image 4002 that is already displayed (in the example of FIG. 6F, the characters “U, E, U”). An area including a point 208c at the same position (hereinafter referred to as "same point") is defined as a cursor 208b.

また、取得部116は、ユーザは左手でスタイラスペン202を保持していることを表す手書き情報を取得しており、方向検出部114は、右方向および下方向を表す第1方向を検出していることにより、ユーザは開始点206aから右方向および下方向へ手書き入力する可能性が高い。従って、同一点208cを左上隅とするカーソル208bを表示する。また、表示制御部110は、カーソル208bの表示態様を、他の領域の表示態様と異ならせるようにすればよい。例えば、表示制御部110は、カーソル208bを点滅させる。これにより、ユーザは、アシスト表示画像4002が表示される位置を容易に認識できる。   The acquisition unit 116 acquires handwritten information indicating that the user is holding the stylus pen 202 with the left hand, and the direction detection unit 114 detects the first direction indicating the right direction and the downward direction. Therefore, there is a high possibility that the user performs handwriting input from the start point 206a in the right direction and the downward direction. Accordingly, the cursor 208b having the same point 208c as the upper left corner is displayed. The display control unit 110 may make the display mode of the cursor 208b different from the display mode of other areas. For example, the display control unit 110 blinks the cursor 208b. Thereby, the user can easily recognize the position where the assist display image 4002 is displayed.

次に、カーソル208bの大きさ(面積)について説明する。表示制御部110は、既に手書き入力された各文字それぞれが占有している領域(以下、「占有領域」という。)の面積を導出する。図6(G)は、文字「う」についての占有領域の一例を示した図である。表示制御部110は、座標記憶部112から、文字「う」を構成する複数の点について、X座標が最大値となる点206g,X座標が最小値となる点206i,Y座標が最大値となる点206f,Y座標が最小値となる点206h,のX座標およびY座標それぞれを取得する。   Next, the size (area) of the cursor 208b will be described. The display control unit 110 derives the area of an area (hereinafter referred to as “occupied area”) occupied by each character that has already been input by handwriting. FIG. 6G is a diagram showing an example of the occupied area for the character “U”. The display control unit 110, from the coordinate storage unit 112, for a plurality of points constituting the character “U”, the point 206g where the X coordinate is the maximum value, the point 206i where the X coordinate is the minimum value, and the Y coordinate are the maximum value The X coordinate and the Y coordinate of the point 206f and the point 206h where the Y coordinate is the minimum value are acquired.

点206gを通る直線,点206iを通る直線において、それぞれが並行となる直線それぞれを直線206gL,206iLとする。また、点206fを通る直線,点206hを通る直線において、それぞれが並行となる直線それぞれを直線206fL,206hLとする。表示制御部110は、これら4本の直線206gL,206iL,206fL,206hLで囲まれた矩形状の面積を、占有領域の面積として導出する。   In the straight line passing through the point 206g and the straight line passing through the point 206i, the straight lines parallel to each other are defined as straight lines 206gL and 206iL. In addition, in the straight line passing through the point 206f and the straight line passing through the point 206h, the straight lines parallel to each other are referred to as straight lines 206fL and 206hL. The display control unit 110 derives a rectangular area surrounded by these four straight lines 206gL, 206iL, 206fL, and 206hL as the area of the occupied region.

表示制御部110は、既に手書き入力された各文字それぞれの占有面積の面積を導出し、これらの平均値を求める。表示制御部110は、該求められた平均値をカーソル208bの面積とする。   The display control unit 110 derives the area of the occupied area of each character that has already been input by handwriting, and obtains an average value thereof. The display control unit 110 sets the obtained average value as the area of the cursor 208b.

≪アシスト表示のY軸方向の位置≫
次に、図7に示すように、ユーザが表示領域312aの上部に、入力画像4001を手書き入力したとする。この場合には、ユーザのアシスト表示の視認性を鑑みて、表示制御部110は、下部にアシスト表示する。
≪Y-axis position of assist display≫
Next, as shown in FIG. 7, it is assumed that the user inputs an input image 4001 by handwriting on the upper part of the display area 312a. In this case, in view of the visibility of the user's assist display, the display control unit 110 displays the assist in the lower part.

例えば、表示制御部110は、座標検出部108が検出した入力画像4001の点の集合各々の座標を検出する。表示制御部110は、該各々座標のうちY座標の平均値を算出する。そして、表示制御部110は、該平均値と、予め定められた閾値とを比較する。表示制御部110が、該平均値は該閾値以上であると判断した場合には、入力画像4001は上方に手書き入力されたということなので、表示制御部110は、アシスト表示画像4002を下方に表示する(図7の状態)。また、表示制御部110が、該平均値は該閾値未満であると判断した場合には、入力画像4001は下方に手書き入力されたということなので、表示制御部110は、アシスト表示画像4002を上方に表示する(図1の状態)。   For example, the display control unit 110 detects the coordinates of each set of points of the input image 4001 detected by the coordinate detection unit 108. The display control unit 110 calculates the average value of the Y coordinates among the coordinates. Then, the display control unit 110 compares the average value with a predetermined threshold value. When the display control unit 110 determines that the average value is equal to or greater than the threshold value, it means that the input image 4001 has been input by handwriting upward, so the display control unit 110 displays the assist display image 4002 downward. (State shown in FIG. 7). When the display control unit 110 determines that the average value is less than the threshold value, it means that the input image 4001 has been input by handwriting downward, so the display control unit 110 moves the assist display image 4002 upward. Is displayed (state shown in FIG. 1).

このように、表示制御部110は、入力画像4001のY軸方向の位置(Y座標)に応じた表示領域312aの端部または該端部近傍にアシスト表示画像4002を表示させる。従って、ユーザは表示領域312aの上部に入力画像4001を手書き入力したとしても、下部にアシスト表示されることから、ユーザは容易にアシスト表示を認識できる。   In this way, the display control unit 110 displays the assist display image 4002 at or near the end of the display area 312a corresponding to the position (Y coordinate) of the input image 4001 in the Y-axis direction. Therefore, even if the user inputs the input image 4001 by handwriting on the upper part of the display area 312a, the assist display is performed on the lower part, so that the user can easily recognize the assist display.

≪ユーザが右利きで、第1方向が左方向である場合≫
次に、図8を参照して、ユーザが右利きであり、かつ、第1方向が左方向である場合について説明する。図8は、ユーザが、入力画像4001としてアラビア語を手書き入力することを示した図である。一般的に右利きのユーザが、例えばアラビア語を手書き入力する場合には、第1方向αは、左方向となる。
≪When the user is right-handed and the first direction is the left direction≫
Next, a case where the user is right-handed and the first direction is the left direction will be described with reference to FIG. FIG. 8 is a diagram illustrating that the user inputs Arabic handwritten as the input image 4001. In general, when a right-handed user inputs, for example, Arabic by handwriting, the first direction α is the left direction.

この場合には、取得部116は、ユーザは右手でスタイラスペン202を保持していることを表す手書き情報を取得する。また、方向検出部114は、第1方向αが左方向であることを検出する。そして、表示制御部110は、表示領域312aの端において、記述情報に応じた端として、表示領域の左端を、アシスト表示の始点として決定する。そして、表示制御部110は、ユーザがアラビア語を1文字を手書き入力する度に、該手書き入力されたアラビア語を方向βにアシスト表示する。   In this case, the acquisition unit 116 acquires handwritten information indicating that the user holds the stylus pen 202 with the right hand. In addition, the direction detection unit 114 detects that the first direction α is the left direction. Then, the display control unit 110 determines the left end of the display area as the start point of the assist display as the end corresponding to the description information at the end of the display area 312a. The display control unit 110 assists and displays the Arabic language input by handwriting in the direction β every time the user inputs one Arabic character by handwriting.

このように、表示制御部110は、手書き情報が、ユーザは右手でスタイラスペン202を保持していることを表す情報であり、かつ、第1方向αが左方向または略左方向である場合に、アシスト表示画像4002を表示させる。   As described above, the display control unit 110 displays the handwritten information as information indicating that the user holds the stylus pen 202 with the right hand, and the first direction α is the left direction or the substantially left direction. Then, an assist display image 4002 is displayed.

≪処理の流れ≫
次に、図9を参照して、実施形態1の情報処理装置の処理の流れについて説明する。図9は、実施形態1の処理フローの一例を示した図である。図9の処理フローでは、入力画像4001が日本語または英語である場合について示したものである。
≪Process flow≫
Next, the flow of processing of the information processing apparatus according to the first embodiment will be described with reference to FIG. FIG. 9 is a diagram illustrating an example of a processing flow according to the first embodiment. The processing flow of FIG. 9 shows a case where the input image 4001 is in Japanese or English.

ステップS2において、表示制御部110は、取得部116が取得した手書き情報が、ユーザは左手でスタイラスペン202を保持していることを示す情報であるか否か、を判断する。表示制御部110が、手書き情報はユーザは右手でスタイラスペン202を保持していることを示す情報であると判断すると(ステップS2のNO)、アシスト表示することなく、処理を終了する。一方、表示制御部110が、手書き情報はユーザは左手でスタイラスペン202を保持していることを示す情報であると判断すると(ステップS2のYES)、処理はステップS4に移行する。   In step S <b> 2, the display control unit 110 determines whether or not the handwritten information acquired by the acquisition unit 116 is information indicating that the user holds the stylus pen 202 with the left hand. If the display control unit 110 determines that the handwritten information is information indicating that the user holds the stylus pen 202 with the right hand (NO in step S2), the process ends without displaying an assist. On the other hand, when the display control unit 110 determines that the handwritten information is information indicating that the user holds the stylus pen 202 with the left hand (YES in step S2), the process proceeds to step S4.

ステップS4において、表示制御部110は、設定モードを左利きモードに設定する。ステップS6において、表示制御部110は、アシスト表示準備を行なう(図6(A)参照)。   In step S4, the display control unit 110 sets the setting mode to the left-handed mode. In step S6, the display control unit 110 prepares for assist display (see FIG. 6A).

ステップS8において、認識部118は、最初に手書き入力された入力画像4001(つまり第1画像401)を文字認識した後に、スタイラスペン202の接触座標を座標記憶部112に格納する。   In step S <b> 8, the recognition unit 118 recognizes characters in the input image 4001 (that is, the first image 401) that is initially input by handwriting, and then stores the contact coordinates of the stylus pen 202 in the coordinate storage unit 112.

ステップS10において、認識部118は、文字認識することにより、ユーザにより手書き入力された文字が1文字であるか否かを判断する。認識部118は、ユーザにより手書き入力された文字が1文字でないと判断すると(ステップS10のNO)、処理は、ステップS4に戻る。認識部118は、ユーザにより手書き入力された文字が1文字であると判断すると(ステップS10のYES)、処理は、ステップS12に移行する。   In step S10, the recognizing unit 118 determines whether or not the character input by handwriting by the user is one character by recognizing the character. If the recognition unit 118 determines that the character handwritten by the user is not one character (NO in step S10), the process returns to step S4. When recognizing unit 118 determines that the character handwritten by the user is one character (YES in step S10), the process proceeds to step S12.

ステップS12において、表示制御部110は、ステップS10において認識部118が認識した1文字(第1画像)をコピーする。   In step S12, the display control unit 110 copies one character (first image) recognized by the recognition unit 118 in step S10.

ステップS14において、表示制御部110は、方向検出部114が検出した第1方向αを取得する。表示制御部110は、該第1方向αが、右向きであるか左向きであるか検出する。検出結果が右向きである場合には(ステップS14のYES)、処理はステップS16に移行する。また、検出結果が左向きである場合には(ステップS14のNO)、処理はステップS20に移行する。   In step S <b> 14, the display control unit 110 acquires the first direction α detected by the direction detection unit 114. The display control unit 110 detects whether the first direction α is rightward or leftward. If the detection result is rightward (YES in step S14), the process proceeds to step S16. If the detection result is leftward (NO in step S14), the process proceeds to step S20.

ステップS16において、CPU302は、基準となる文字のX座標を1文字分、インクリメントする。該基準となる文字は、方向検出部114が第1方向を検出するために用いられる。   In step S16, the CPU 302 increments the X coordinate of the reference character by one character. The reference character is used for the direction detection unit 114 to detect the first direction.

ステップS18において、表示制御部110は、図1に記載のように、右端から左方向に、ステップS12でコピーした入力画像4001に基づいたアシスト表示画像4002をアシスト表示する。   In step S18, as illustrated in FIG. 1, the display control unit 110 assists and displays an assist display image 4002 based on the input image 4001 copied in step S12 from the right end to the left.

ステップS20において、座標検出部108は、スタイラスペン202が、入力受付部102に対して非接触になったか否かを判断する。座標検出部108が、非接触になったと判断すると(ステップS20のYES)、処理はステップS22に移行する。一方、座標検出部108が、スタイラスペン202は入力受付部102に対して接触されていると判断すると(ステップS20のNO)、処理はステップS26に移行する。   In step S <b> 20, the coordinate detection unit 108 determines whether the stylus pen 202 is not in contact with the input receiving unit 102. If the coordinate detection unit 108 determines that contact has been lost (YES in step S20), the process proceeds to step S22. On the other hand, when the coordinate detection unit 108 determines that the stylus pen 202 is in contact with the input receiving unit 102 (NO in step S20), the process proceeds to step S26.

ステップS22において、CPU302は、座標検出部108が、非接触になったと判断した時から、所定時間(例えば、2秒)経過したか否かを判断する。CPU302は、座標検出部108が、非接触になったと判断した時から、所定時間経過するまで、該判断を繰り返す(ステップS22のNO)。CPU302は、座標検出部108が、非接触になったと判断した時から、所定時間経過したと判断すると、処理はステップS24に移行する。   In step S <b> 22, the CPU 302 determines whether or not a predetermined time (for example, 2 seconds) has elapsed since the coordinate detection unit 108 determined that contact has been lost. The CPU 302 repeats the determination until a predetermined time elapses after the coordinate detection unit 108 determines that the contact is not made (NO in step S22). If the CPU 302 determines that a predetermined time has elapsed since the coordinate detection unit 108 determined that contact has not occurred, the process proceeds to step S24.

ステップS24において、座標検出部108は、スタイラスペン202が入力受付部102に対して非接触のままか否かを判断する。座標検出部108が非接触のままであると判断すると(ステップS24のYES)、処理はステップS32に移行する。一方、座標検出部108は、スタイラスペン202が入力受付部102に接触されたと判断すると(ステップS24のNO)、処理はステップS26に移行する。   In step S <b> 24, the coordinate detection unit 108 determines whether the stylus pen 202 is not in contact with the input receiving unit 102. If it is determined that the coordinate detection unit 108 remains non-contact (YES in step S24), the process proceeds to step S32. On the other hand, when the coordinate detection unit 108 determines that the stylus pen 202 is in contact with the input receiving unit 102 (NO in step S24), the process proceeds to step S26.

ステップS26において、表示制御部110は、方向検出部114が検出した第1方向αを取得する。表示制御部110は、該第1方向αが、上方向かを下方向か検出する。検出結果が上方向である場合には(ステップS26のNO)、処理はステップS14に戻る。また、検出結果が下向きである場合には(ステップS26のYES)、処理はステップS28に移行する。   In step S26, the display control unit 110 acquires the first direction α detected by the direction detection unit 114. The display control unit 110 detects whether the first direction α is upward or downward. If the detection result is upward (NO in step S26), the process returns to step S14. If the detection result is downward (YES in step S26), the process proceeds to step S28.

ステップS28において、CPU302は、基準となる文字のY座標を−1文字分、インクリメントする。   In step S28, the CPU 302 increments the Y coordinate of the reference character by -1 character.

ステップS30において、表示制御部110は、2行のアシスト表示をする(図6(E)参照)。   In step S30, the display control unit 110 performs assist display of two lines (see FIG. 6E).

ステップS32において、表示制御部110は、アシスト表示を終了する(アシスト表示を消去する)。ステップS24でYESと判断されたということは、ユーザが手書き入力処理を終了させた、ということである。また、ステップS24でNOと判断されたということは、ユーザが新たな文字を手書き入力したということである。   In step S32, the display control unit 110 ends the assist display (deletes the assist display). The determination of YES in step S24 means that the user has finished the handwriting input process. In addition, the determination of NO in step S24 means that the user has input a new character by handwriting.

≪まとめ≫
本実施形態の情報処理装置は、表示領域312aの端において第1方向αに応じた端から、第1方向αと逆方向βに、入力画像4001と対応するアシスト表示画像4002をアシスト表示する。第1方向αに応じた端とは、第1方向αが右方向である場合には、表示領域312aの右端であり、第1方向αが左方向である場合には、表示領域312aの左端である。従って、ユーザは、直近に手書き入力した入力画像4001が手に覆われて視認できなくても、アシスト表示画像4002を視認することにより、入力画像4001を認識できる。
≪Summary≫
The information processing apparatus according to the present embodiment assists and displays the assist display image 4002 corresponding to the input image 4001 in the opposite direction β to the first direction α from the end corresponding to the first direction α at the end of the display area 312a. The end corresponding to the first direction α is the right end of the display area 312a when the first direction α is the right direction, and the left end of the display area 312a when the first direction α is the left direction. It is. Therefore, the user can recognize the input image 4001 by visually recognizing the assist display image 4002 even if the input image 4001 input by handwriting most recently is covered with a hand and cannot be visually recognized.

[実施形態2]
次に、実施形態2について説明する。図10は、実施形態2の情報処理装置100Bの機能構成例を示した図である。図10は、操作受付部120が追加されている点で、図3と異なる。実施形態1では、手書き検出部106が、ユーザの手等を検出することにより、ユーザがスタイラスペン202を保持している手が右手であるか左手であるかを検出する。実施形態2では、操作受付部120は、ユーザから、該ユーザが右利きか左利きかの入力を受け付ける。
[Embodiment 2]
Next, Embodiment 2 will be described. FIG. 10 is a diagram illustrating a functional configuration example of the information processing apparatus 100B according to the second embodiment. FIG. 10 differs from FIG. 3 in that an operation reception unit 120 is added. In the first embodiment, the handwriting detection unit 106 detects whether the hand holding the stylus pen 202 is the right hand or the left hand by detecting the user's hand or the like. In the second embodiment, the operation receiving unit 120 receives an input from the user as to whether the user is right-handed or left-handed.

図11を参照して、操作受付部120について説明する。図11は、実施形態2の操作画面3120の一例を示した図である。表示装置312は、該操作画面3120を表示する。操作画面3120は、左利きキー3120aおよび右利きキー3120bを含む。これらのキーは、ユーザによりタッチ可能とする。   The operation reception unit 120 will be described with reference to FIG. FIG. 11 is a diagram illustrating an example of the operation screen 3120 according to the second embodiment. The display device 312 displays the operation screen 3120. Operation screen 3120 includes left-handed key 3120a and right-handed key 3120b. These keys can be touched by the user.

ユーザは、自身が該当する手書きに対応するキーをタッチする。操作受付部120は、タッチされたキーに対応する手書き情報を生成する。取得部116は、操作受付部120が生成した手書き情報を取得する。   The user touches a key corresponding to his / her handwriting. The operation reception unit 120 generates handwritten information corresponding to the touched key. The acquisition unit 116 acquires the handwritten information generated by the operation reception unit 120.

また、図11の例では、表示装置312に表示された操作画面について説明したが、ハードキー(図示せず)により、ユーザは手書きを選択可能としてもよい。   In the example of FIG. 11, the operation screen displayed on the display device 312 has been described. However, the user may select handwriting with a hard key (not shown).

また、導出部122は、操作受付部120および手書き検出部106のうち少なくとも一方を含む。つまり、導出部122は、手書き情報を検出するものである。   The derivation unit 122 includes at least one of the operation reception unit 120 and the handwriting detection unit 106. That is, the derivation unit 122 detects handwritten information.

本実施形態2の情報処理装置であれば、手書き検出部106の検出処理がなくても、ユーザから手書きを選択させることにより、取得部116は、手書き情報を取得できる。   In the information processing apparatus according to the second embodiment, the acquisition unit 116 can acquire handwritten information by allowing the user to select handwriting without the detection process of the handwriting detection unit 106.

[実施形態3]
次に、図12を用いて、実施形態3の情報処理装置100Cについて説明する。図12は、実施形態3の情報処理装置100Cの機能構成例である。図12は、取得部116、手書き検出部106、表示制御部110がそれぞれ、取得部130、対象物検出部150、表示制御部140に代替されている点で、図3と異なる。
[Embodiment 3]
Next, the information processing apparatus 100C according to the third embodiment will be described with reference to FIG. FIG. 12 is a functional configuration example of the information processing apparatus 100C according to the third embodiment. 12 differs from FIG. 3 in that the acquisition unit 116, the handwriting detection unit 106, and the display control unit 110 are replaced with the acquisition unit 130, the object detection unit 150, and the display control unit 140, respectively.

実施形態1では、表示制御部110は、方向検出部114が検出した第1方向、および、取得部116が取得した手書き情報に基づいて、アシスト表示をする。実施形態3の表示制御部140は、手書き情報を用いずに、表示領域312a上に存在する対象検出物を検出し、該検出結果と、第1方向とに基づいて、アシスト表示する。   In the first embodiment, the display control unit 110 performs assist display based on the first direction detected by the direction detection unit 114 and the handwritten information acquired by the acquisition unit 116. The display control unit 140 according to the third embodiment detects a target detection object existing on the display area 312a without using handwritten information, and performs assist display based on the detection result and the first direction.

対象物検出部150の構成は、大略して手書き検出部106と同様の構成である(例えば、図5参照)。従って、対象物検出部150は、検出対象物500を検出できる。検出対象物500は、例えば、スタイラスペン202およびユーザの手などである。   The configuration of the object detection unit 150 is roughly the same as that of the handwriting detection unit 106 (see, for example, FIG. 5). Therefore, the object detection unit 150 can detect the detection object 500. The detection target object 500 is, for example, the stylus pen 202 and the user's hand.

対象物検出部150は検出結果を取得部130へ送信する。ここで、好ましくは、検出結果は、検出対象物500が表示領域312aに接触している座標、および、表示領域312aにできる検出対象物500の影の座標を含む。図13は、ユーザの手204の影204a等を示した図である。   The object detection unit 150 transmits the detection result to the acquisition unit 130. Here, preferably, the detection result includes coordinates where the detection target object 500 is in contact with the display area 312a and coordinates of a shadow of the detection target object 500 formed in the display area 312a. FIG. 13 is a diagram showing a shadow 204a of the user's hand 204 and the like.

対象物検出部150は、図13に示すスタイラスペン202およびユーザの手の影204aの座標(座標の集合)を検出する。そして、対象物検出部150は、該座標を取得部130に送信する。取得部130は、該送信された座標の集合C1を取得する。取得部130は、取得した座標の集合を表示制御部140へ送信する。   The object detection unit 150 detects the coordinates (a set of coordinates) of the stylus pen 202 and the user's hand shadow 204a shown in FIG. Then, the object detection unit 150 transmits the coordinates to the acquisition unit 130. The acquisition unit 130 acquires the transmitted set of coordinates C1. The acquisition unit 130 transmits the acquired set of coordinates to the display control unit 140.

また、表示制御部140は、手書き入力された入力画像4001を構成する座標の集合C2を座標記憶部112から取得する。そして、表示制御部140は、取得部130から取得した座標の集合C1と、座標記憶部112から取得した座標C2の集合とに基づいて、第1画像と検出対象物500とが、対向または略対向しているか否かを判断する。   In addition, the display control unit 140 acquires from the coordinate storage unit 112 a set of coordinates C2 constituting the input image 4001 input by handwriting. Then, based on the coordinate set C1 acquired from the acquisition unit 130 and the set of coordinates C2 acquired from the coordinate storage unit 112, the display control unit 140 causes the first image and the detection target 500 to face each other or substantially. It is determined whether or not they are facing each other.

具体的には、表示制御部140は、座標の集合C1と座標の集合C2とを比較して、同一である座標の数が、予め定められた閾値以上あれば、第1画像と検出対象物500とが、対向または略対向していると判断する。一方、該同一である座標の数が、該閾値未満あれば、表示制御部140は、第1画像と検出対象物500とが、対向していないと判断する。   Specifically, the display control unit 140 compares the coordinate set C1 and the coordinate set C2, and if the number of identical coordinates is equal to or greater than a predetermined threshold, the first image and the detection target object 500 is opposed or substantially opposed. On the other hand, if the number of the same coordinates is less than the threshold value, the display control unit 140 determines that the first image and the detection target object 500 are not opposed to each other.

入力画像4001と検出対象物500とが対向または略対向している場合には、ユーザは、入力画像4001を目視できない。従って、この場合は、表示制御部140は、入力画像4001に対応する第2画像をアシスト表示する。   When the input image 4001 and the detection target object 500 are opposed or substantially opposed to each other, the user cannot visually check the input image 4001. Therefore, in this case, the display control unit 140 assists and displays the second image corresponding to the input image 4001.

また、アシスト表示の開始箇所の決定手法については、実施形態1と同様なので、説明を省略する。   Further, the method for determining the start position of the assist display is the same as in the first embodiment, and thus the description thereof is omitted.

この実施形態3の情報処理装置100Cによると、表示制御部140が、入力画像4001と検出対象物500とが対向または略対向していると判断した場合に、表示制御部140は、表示領域の端のうち第1方向αに応じた端から、第1方向αと逆方向βに、アシスト表示する。この手法では、手書き情報を生成せずとも、実施形態1と同様の効果を奏する。   According to the information processing apparatus 100C of the third embodiment, when the display control unit 140 determines that the input image 4001 and the detection target object 500 are opposed or substantially opposed to each other, the display control unit 140 displays the display area. Assist display is performed in the direction β opposite to the first direction α from the end corresponding to the first direction α. This method has the same effect as that of the first embodiment without generating handwritten information.

[実施形態4]
図14は、実施形態4の情報処理装置100Dの機能構成例を示した図である。図14は、図3と比較して、取得部116、表示制御部110がそれぞれ、取得部230、表示制御部240に代替されており、さらに言語検出部250が追加されている点で、図3と異なる。
[Embodiment 4]
FIG. 14 is a diagram illustrating a functional configuration example of the information processing apparatus 100D according to the fourth embodiment. 14 is different from FIG. 3 in that the acquisition unit 116 and the display control unit 110 are replaced with the acquisition unit 230 and the display control unit 240, respectively, and a language detection unit 250 is added. Different from 3.

実施形態4では、入力画像4001が言語である場合に、表示制御部240は、言語の種類と第1方向αに基づいて、アシスト表示する。図15は、表示制御部240がアシスト表示する条件の一例を示した図である。   In the fourth embodiment, when the input image 4001 is a language, the display control unit 240 performs assist display based on the type of language and the first direction α. FIG. 15 is a diagram illustrating an example of conditions for assist display by the display control unit 240.

図15に示すように、ユーザが左利きであり、かつ、言語が日本語または英語である場合には、図1に示すように、ユーザの手により手書き入力された言語が覆われる。従って表示制御部はアシスト表示する。   As shown in FIG. 15, when the user is left-handed and the language is Japanese or English, the language handwritten by the user's hand is covered as shown in FIG. Therefore, the display control unit performs assist display.

また、ユーザが右利きであり、かつ、言語がアラビア語である場合には、図8に示すように、ユーザの手により手書き入力された言語が覆われる。従って表示制御部240はアシスト表示する。   In addition, when the user is right-handed and the language is Arabic, the language handwritten by the user's hand is covered as shown in FIG. Accordingly, the display control unit 240 performs assist display.

言語検出部250は、認識部118が認識した言語の種類を検出する。言語検出部250の言語の種類の検出手法は、例えば、パターンマッチング方式を用いればよい。言語検出部250により検出された言語の種類は、表示制御部240に出力される。   The language detection unit 250 detects the language type recognized by the recognition unit 118. As the language type detection method of the language detection unit 250, for example, a pattern matching method may be used. The language type detected by the language detection unit 250 is output to the display control unit 240.

表示制御部240は、取得部230から出力された手書き情報、および、言語検出部250から出力された言語の種類に基づいて、アシスト表示する。   The display control unit 240 performs assist display based on the handwritten information output from the acquisition unit 230 and the language type output from the language detection unit 250.

この実施形態4の情報処理装置100Dによると、第1方向を検出することなく、実施形態1と同様の効果を奏する。   According to the information processing apparatus 100D of the fourth embodiment, the same effect as that of the first embodiment is obtained without detecting the first direction.

[実施形態5]
図16を参照して、実施形態5の情報処理装置について説明する。図16は、実施形態5の情報処理装置の表示画面の一例である。ユーザが、入力画像4001を大きく手書き入力した場合に、入力画像4001とアシスト表示画像4002とが重畳してしまい、ユーザがアシスト表示画像4002を見づらくなる。そこで、図16に示すように、実施形態5の情報処理装置は、第1画像の領域の大きさに応じて、第2画像を縮小して表示する。
[Embodiment 5]
With reference to FIG. 16, the information processing apparatus of Embodiment 5 is demonstrated. FIG. 16 is an example of a display screen of the information processing apparatus according to the fifth embodiment. When the user performs large handwriting input on the input image 4001, the input image 4001 and the assist display image 4002 are superimposed, making it difficult for the user to see the assist display image 4002. Therefore, as illustrated in FIG. 16, the information processing apparatus according to the fifth exemplary embodiment reduces and displays the second image according to the size of the area of the first image.

また、以下の説明では、機能構成例は図3とするが、他の図面に示す機能構成例でもよい。以下では、入力画像4001が表示される領域を第1画像領域510とし、アシスト表示画像4002が表示される領域を第2画像領域512とする。   In the following description, the functional configuration example is illustrated in FIG. 3, but may be functional configuration examples illustrated in other drawings. Hereinafter, the area where the input image 4001 is displayed is referred to as a first image area 510, and the area where the assist display image 4002 is displayed is referred to as a second image area 512.

図17を参照して、表示制御部110の処理の内容を説明する。図17は、実施形態5の表示制御部110の処理フローの一例を示した図である。   With reference to FIG. 17, the content of the process of the display control unit 110 will be described. FIG. 17 is a diagram illustrating an example of a processing flow of the display control unit 110 according to the fifth embodiment.

ステップS102において、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳すると推定されるか否かを判断する。または、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳したか否かを判断する。入力画像4001とアシスト表示画像4002の重畳については、入力画像4001を構成する複数の点の座標と、アシスト表示画像4002を構成する複数の点の座標とに基づいて行われる。   In step S102, the display control unit 110 determines whether or not it is estimated that the input image 4001 and the assist display image 4002 are superimposed. Alternatively, the display control unit 110 determines whether or not the input image 4001 and the assist display image 4002 are superimposed. The superimposition of the input image 4001 and the assist display image 4002 is performed based on the coordinates of a plurality of points constituting the input image 4001 and the coordinates of the plurality of points constituting the assist display image 4002.

ステップS102において、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳すると判断すると(ステップS102のYES)、処理はステップS104に移行する。一方、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳しないと判断すると(ステップS102のNO)、処理はステップS108に移行する。   In step S102, if display control unit 110 determines that input image 4001 and assist display image 4002 are superimposed (YES in step S102), the process proceeds to step S104. On the other hand, when display control unit 110 determines that input image 4001 and assist display image 4002 do not overlap (NO in step S102), the process proceeds to step S108.

ステップS104において、表示制御部110は、第1画像領域510の面積(例えば、ドット数)を算出する。   In step S104, the display control unit 110 calculates the area (for example, the number of dots) of the first image region 510.

ステップS106において、表示制御部110は、第1画像領域510の面積に応じて、アシスト表示画像4002のフォントサイズを縮小する。なお、例えば、第1画像領域510の面積に応じた係数rが、情報処理装置の製造時に予め決定される。該係数rの定め方として、該係数rが乗算されたフォントサイズで第2画像をアシスト表示した場合に、入力画像4001と重畳しないように、該係数rを定める。そして、表示制御部110は、アシスト表示画像4002のフォントサイズ(つまり、第1画像のフォントサイズ)に、該係数rを乗算する。そして、表示制御部110は、該係数rが乗算されたフォントサイズで、アシスト表示画像4002をアシスト表示する。   In step S <b> 106, the display control unit 110 reduces the font size of the assist display image 4002 according to the area of the first image region 510. For example, the coefficient r corresponding to the area of the first image region 510 is determined in advance when the information processing apparatus is manufactured. As a method of determining the coefficient r, the coefficient r is determined so as not to be superimposed on the input image 4001 when the second image is assisted displayed with a font size multiplied by the coefficient r. The display control unit 110 multiplies the font size of the assist display image 4002 (that is, the font size of the first image) by the coefficient r. Then, the display control unit 110 assists and displays the assist display image 4002 with the font size multiplied by the coefficient r.

一方、ステップS108において、表示制御部110は、アシスト表示画像4002のフォントサイズを変えずに、アシスト表示画像4002をアシスト表示する。   On the other hand, in step S108, the display control unit 110 assists and displays the assist display image 4002 without changing the font size of the assist display image 4002.

なお、ステップS102で、表示制御部110は、入力画像4001とアシスト表示画像4002とが既に重畳したか否かを判断するようにしてもよい。そして、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳したと判断すると、即座に、ステップS104とS106の処理を行なう。   In step S102, the display control unit 110 may determine whether or not the input image 4001 and the assist display image 4002 have already been superimposed. When the display control unit 110 determines that the input image 4001 and the assist display image 4002 are superimposed, it immediately performs the processes of steps S104 and S106.

この実施形態5の情報処理装置は、入力画像4001とアシスト表示画像4002とを重畳させずに、アシスト表示画像4002をアシスト表示できる。   The information processing apparatus according to the fifth embodiment can assist display the assist display image 4002 without superimposing the input image 4001 and the assist display image 4002.

[実施形態6]
図18を参照して、実施形態6の情報処理装置について説明する。図18は、実施形態6の情報処理装置の表示画面の一例である。ユーザが、入力画像4001を大きく手書き入力した場合に、入力画像4001とアシスト表示画像4002とが重畳してしまい、ユーザがアシスト表示画像4002を見づらくなる。
[Embodiment 6]
With reference to FIG. 18, the information processing apparatus of Embodiment 6 is demonstrated. FIG. 18 is an example of a display screen of the information processing apparatus according to the sixth embodiment. When the user performs large handwriting input on the input image 4001, the input image 4001 and the assist display image 4002 are superimposed, making it difficult for the user to see the assist display image 4002.

そこで、実施形態6の表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳する場合には、表示制御部110は、直近に手書き入力された画像に基づく画像を優先的に表示する。図18の例では、表示制御部110は、直近に手書き入力された画像「かけます。交通手段は、電車です。」を優先的に表示している。つまり、表示制御部110は、以前に手書き入力された「今日の天気は晴れです。」の全て、および、「私は、今から買い物に出かけます。」の一部を消去して表示している。   Therefore, when the input image 4001 and the assist display image 4002 overlap each other, the display control unit 110 according to the sixth embodiment preferentially displays an image based on the most recently handwritten input image. . In the example of FIG. 18, the display control unit 110 preferentially displays the most recently handwritten input image “Put. The transportation means is a train.” In other words, the display control unit 110 erases and displays all of the “Today's weather is sunny.” And a part of “I will go shopping now.” Yes.

図19を参照して、表示制御部110の処理の内容を説明する。図19は、実施形態6の表示制御部110の処理フローの一例を示した図である。   With reference to FIG. 19, the content of the process of the display control part 110 is demonstrated. FIG. 19 is a diagram illustrating an example of a processing flow of the display control unit 110 according to the sixth embodiment.

ステップS102において、表示制御部110は、入力画像4001とアシスト表示画像4002とをそれぞれ同じ大きさで表示した場合に、入力画像4001とアシスト表示画像4002とが重畳すると推定されるか否かを判断する。または、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳したか否かを判断する。   In step S102, the display control unit 110 determines whether or not it is estimated that the input image 4001 and the assist display image 4002 are superimposed when the input image 4001 and the assist display image 4002 are displayed in the same size. To do. Alternatively, the display control unit 110 determines whether or not the input image 4001 and the assist display image 4002 are superimposed.

ステップS102において、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳すると判断すると(ステップS102のYES)、処理はステップS110に移行する。一方、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳しないと判断すると(ステップS102のNO)、処理はステップS108に移行する。   In step S102, when the display control unit 110 determines that the input image 4001 and the assist display image 4002 are superimposed (YES in step S102), the process proceeds to step S110. On the other hand, when display control unit 110 determines that input image 4001 and assist display image 4002 do not overlap (NO in step S102), the process proceeds to step S108.

ステップS110において、表示制御部110は、直近に手書き入力された入力画像4001に基づくアシスト表示画像4002を優先的に表示する。また、表示制御部110は、アシスト表示画像4002が表示される第2画像領域512の大きさを固定するようにしてもよい。   In step S110, the display control unit 110 preferentially displays the assist display image 4002 based on the input image 4001 input by handwriting most recently. Further, the display control unit 110 may fix the size of the second image area 512 in which the assist display image 4002 is displayed.

なお、ステップS102で、表示制御部110は、入力画像4001とアシスト表示画像4002とが重畳したか否かを判断するようにしてもよい。この場合には、入力画像4001とアシスト表示画像4002とが重畳したと判断した後に、表示制御部110は、直近に手書き入力された入力画像4001に基づくアシスト表示画像4002を優先的に表示する。   In step S102, the display control unit 110 may determine whether the input image 4001 and the assist display image 4002 are superimposed. In this case, after determining that the input image 4001 and the assist display image 4002 are superimposed, the display control unit 110 preferentially displays the assist display image 4002 based on the input image 4001 input by handwriting most recently.

この実施形態6の情報処理装置は、入力画像4001とアシスト表示画像4002とを重畳させずに、アシスト表示画像4002をアシスト表示できる。   The information processing apparatus according to the sixth embodiment can assist display the assist display image 4002 without superimposing the input image 4001 and the assist display image 4002.

また、実施形態5および実施形態6の手法によらず、他の手法により、表示制御部は、入力画像4001およびアシスト表示画像4002が重畳しないように、入力画像4001およびアシスト表示画像4002を表示するようにしてもよい。   In addition, the display control unit displays the input image 4001 and the assist display image 4002 so that the input image 4001 and the assist display image 4002 are not superimposed by another method, regardless of the method of the fifth and sixth embodiments. You may do it.

[その他]
上述の通り、本実施形態の情報処理装置は表示領域の端から、アシスト表示する、と説明した。その他に、図20(A)に示すように、入力画像4001が手書き入力された領域以外の領域にアシスト表示画像4002をポップアップ画像で表示する手法も考えられる。しかし、図20(B)に示すように、入力画像4001が手書き入力された位置が変更される度に、アシスト表示画像4002が表示される位置が変更される。従って、ユーザはアシスト表示画像4002の表示位置が変更される度に、視線を変える必要があり、ユーザは該アシスト表示画像4002を見づらくなる。
[Others]
As described above, it has been described that the information processing apparatus of the present embodiment performs assist display from the end of the display area. In addition, as shown in FIG. 20A, a method of displaying the assist display image 4002 as a pop-up image in an area other than the area where the input image 4001 is input by handwriting is also conceivable. However, as shown in FIG. 20B, the position where the assist display image 4002 is displayed is changed every time the position where the input image 4001 is input by handwriting is changed. Accordingly, the user needs to change the line of sight each time the display position of the assist display image 4002 is changed, and the user becomes difficult to see the assist display image 4002.

一方、本実施形態の情報処理装置では、アシスト表示の始点が固定されているため、図20と比較して、ユーザはアシスト表示を見やすい。   On the other hand, in the information processing apparatus according to the present embodiment, since the starting point of the assist display is fixed, the user can easily see the assist display as compared with FIG.

また、本発明の情報処理装置は、CPUとその上で実行されるプログラムにより実現される。本発明を実現するプログラムは、コンピュータが読み取り可能な記録媒体、例えば半導体メモリ、ハードディスク、CD−ROM、DVD等に格納することができ、これらの記録媒体に記録して提供され、又は、通信インタフェースを介してネットワークを利用した送受信により提供される。   The information processing apparatus of the present invention is realized by a CPU and a program executed on the CPU. The program for realizing the present invention can be stored in a computer-readable recording medium such as a semiconductor memory, a hard disk, a CD-ROM, a DVD, or the like, provided by being recorded on these recording media, or a communication interface. It is provided by transmission / reception using a network.

また、今回開示された実施形態はすべての点で例示であって、制限的なものではない。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   In addition, the embodiment disclosed this time is illustrative in all points and is not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

102 入力受付部、104 表示部、106 手書き検出部、108 座標検出部、110 表示制御部、111 辞書記憶部、112 座標記憶部、114 方向検出部、116 取得部、118 認識部、120 操作部、122 導出部、150 対象物検出部、202 スタイラスペン。   102 input accepting unit, 104 display unit, 106 handwriting detection unit, 108 coordinate detection unit, 110 display control unit, 111 dictionary storage unit, 112 coordinate storage unit, 114 direction detection unit, 116 acquisition unit, 118 recognition unit, 120 operation unit , 122 Deriving unit, 150 Object detecting unit, 202 Stylus pen.

Claims (16)

表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示手段と、
手書き入力を行なう手が右手または左手かを表す手書き情報を導出する導出手段と、
前記表示手段が第1画像の手書き入力を第1位置に受け付けた後、前記表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および前記手書き情報に応じた前記表示領域の端部または該端部の近傍に前記第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、前記第2画像に基づく第4画像を前記第3位置に表示させる表示制御手段と、を備え、
前記第3位置から前記第4位置までの方向は、前記第1方向と逆方向である、情報処理装置。
Display means for receiving handwritten input of an image in a display area, and displaying an image related to the handwritten input at a position where the handwritten input is received;
Deriving means for deriving handwritten information indicating whether the hand performing handwriting input is the right hand or the left hand;
After the display means accepts the handwritten input of the first image at the first position, and when the display means accepts the handwritten input of the second image at the second position, the second position from the first position to the second position. The third image based on the first image is displayed at the third position at or near the end of the display area corresponding to the one direction and the handwritten information, and then the third image is set at the fourth position. Display control means for displaying and displaying a fourth image based on the second image at the third position;
The information processing apparatus, wherein a direction from the third position to the fourth position is opposite to the first direction.
前記手書き情報が左手であることを表し、かつ、前記第1方向が前記ユーザから見てX軸正方向である場合に、前記表示制御手段は前記表示領域の端部を該ユーザから見て右側の端部とする、請求項1記載の情報処理装置。   When the handwritten information represents the left hand and the first direction is the positive X-axis direction when viewed from the user, the display control means is on the right side when viewing the end of the display area from the user. The information processing apparatus according to claim 1, wherein the information processing apparatus is an end of the information processing apparatus. 前記手書き情報が右手であることを表し、かつ、前記第1方向が前記ユーザから見てX軸負方向である場合に、前記表示制御手段は前記表示領域の端部を該ユーザから見て左側の端部とする、請求項1または2記載の情報処理装置。   When the handwritten information represents a right hand and the first direction is a negative X-axis direction when viewed from the user, the display control means is a left side when viewing the end of the display area from the user. The information processing apparatus according to claim 1, wherein the information processing apparatus is an end of the information processing apparatus. 表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示手段と、
手書き入力を行なう手が右手または左手かを表す手書き情報を導出する導出手段と、
前記画像の種類を検出する種類検出手段と、
前記表示手段が第1画像の手書き入力を第1位置に受け付けた後、前記表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および前記画像の種類に応じた前記表示領域の端部または該端部の近傍に前記第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、前記第2画像に基づく第4画像を前記第3位置に表示させる表示制御手段と、を備え、
前記第3位置から前記第4位置までの方向は、前記第1方向と逆方向である、情報処理装置。
Display means for receiving handwritten input of an image in a display area, and displaying an image related to the handwritten input at a position where the handwritten input is received;
Deriving means for deriving handwritten information indicating whether the hand performing handwriting input is the right hand or the left hand;
Type detecting means for detecting the type of the image;
After the display means accepts the handwritten input of the first image at the first position, and when the display means accepts the handwritten input of the second image at the second position, the second position from the first position to the second position. After the third image based on the first image is displayed at the third position at or near the end of the display area according to one direction and the type of the image, the third image is displayed at the fourth position. And display control means for displaying a fourth image based on the second image at the third position,
The information processing apparatus, wherein a direction from the third position to the fourth position is opposite to the first direction.
前記導出手段は、手書き入力を行なう手が右手または左手かを検出することにより、前記手書き情報を生成する手書き検出手段を含む、請求項1〜4いずれか1項記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the derivation means includes handwriting detection means for generating the handwritten information by detecting whether a hand performing handwriting input is a right hand or a left hand. 前記導出手段は、手書き入力を行なう手が右手または左手かの設定を受け付けることにより、前記手書き情報を生成する表示手段を含む、請求項1〜5いずれか1項記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the deriving unit includes a display unit that generates the handwritten information by accepting a setting of whether a hand performing handwriting input is a right hand or a left hand. 表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示手段と、
前記表示領域上の検出対象物を検出する対象物検出手段と、
前記表示手段が第1画像の手書き入力を第1位置に受け付けた後、前記表示手段が第2画像の手書き入力を第2位置に受け付け、前記対象物検出手段に検出された前記検出対象物が前記第1画像および前記第2画像に対向または略対向している場合、該第1位置から該第2位置までの第1方向に応じた前記表示領域の端部または該端部の近傍に前記第1画像に基づく第3画像を表示させ、その後、該第3画像の表示位置を前記第1方向と逆方向に移動させ、該端部または該端部の近傍に前記第2画像に基づく第4画像を表示する表示制御手段と、を備える情報処理装置。
Display means for receiving handwritten input of an image in a display area, and displaying an image related to the handwritten input at a position where the handwritten input is received;
Object detection means for detecting a detection object on the display area;
After the display means accepts the handwritten input of the first image at the first position, the display means accepts the handwritten input of the second image at the second position, and the detected object detected by the object detecting means is In the case where the first image and the second image are opposed or substantially opposed to each other, the end of the display area corresponding to the first direction from the first position to the second position or the vicinity of the end A third image based on the first image is displayed, and then the display position of the third image is moved in the direction opposite to the first direction, and the second image based on the second image is located near or near the end. An information processing apparatus comprising: display control means for displaying four images.
前記対象物検出手段は、前記表示領域にできた前記検出対象物の影の座標を検出し、
前記表示制御手段は、前記第1画像および前記第2画像の座標と、前記検出対象物の影の座標とにおいて、同一である座標の数が予め定められた閾値以上である場合に、前記対象物検出手段に検出された前記検出対象物が前記第1画像および前記第2画像に対向または略対向しているとする、請求項7記載の情報処理装置。
The object detection means detects the coordinates of the shadow of the detection object formed in the display area,
When the number of coordinates that are the same in the coordinates of the first image and the second image and the coordinates of the shadow of the detection target is equal to or greater than a predetermined threshold, the display control means The information processing apparatus according to claim 7, wherein the detection target detected by an object detection unit is opposed to or substantially opposed to the first image and the second image.
前記表示制御手段は、手書き入力を受け付けた複数の画像それぞれの位置と、該複数の画像それぞれに基づく該複数の画像それぞれの位置とが相対的に同一になるように、該複数の画像それぞれに基づく該複数の画像それぞれを表示させる、請求項1〜8いずれか1項記載の情報処理装置。   The display control means applies each of the plurality of images so that the positions of the plurality of images that have received handwritten input and the positions of the plurality of images based on the plurality of images are relatively the same. The information processing apparatus according to claim 1, wherein each of the plurality of images based thereon is displayed. 前記表示制御手段は、手書き入力された画像と、該手書き入力された画像に基づく画像とが重畳しないように、該手書き入力された画像に基づく画像に対して所定の処理を施して表示させる、請求項1〜9いずれか1項記載の情報処理装置。   The display control means performs a predetermined process on the image based on the handwritten input image so that the image based on the handwritten input image does not overlap with the image based on the handwritten input image. The information processing apparatus according to claim 1. 前記所定の処理は、手書き入力された画像の大きさに応じて、該手書き入力された画像に基づく画像を縮小する処理を含む、請求項10記載の情報処理装置。   The information processing apparatus according to claim 10, wherein the predetermined process includes a process of reducing an image based on the handwritten input image according to a size of the image input by handwriting. 前記所定の処理は、直近に手書き入力された画像に基づく画像を優先的に表示する処理を含む、請求項10記載の情報処理装置。   The information processing apparatus according to claim 10, wherein the predetermined process includes a process of preferentially displaying an image based on an image input by handwriting most recently. 前記表示制御手段は、前記表示手段に2行以上の画像が手書き入力された場合に、該2行目以降の各々の行の最初の手書き入力された画像に基づく画像が表示される領域を表示する、請求項1〜12いずれか1項記載の情報処理装置。   The display control means displays an area in which an image based on the first handwritten input image of each line after the second line is displayed when two or more lines of the image are input by hand on the display means. The information processing apparatus according to any one of claims 1 to 12. 前記表示制御手段は、前記ユーザから見たY軸方向の、手書き入力された画像の位置に応じた前記表示領域の端部または該端部近傍に該画像に基づく画像を表示させる、請求項1〜13いずれか1項記載の情報処理装置。   The display control means displays an image based on the image at or near the end of the display area corresponding to the position of the handwritten input image in the Y-axis direction as viewed from the user. The information processing apparatus according to any one of to 13. 表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像を表示する表示方法であって、
手書き入力を行なう手が右手または左手かを表す手書き情報を導出するステップと、
前記表示手段が第1画像の手書き入力を第1位置に受け付けた後、前記表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および前記手書き情報に応じた前記表示領域の端部または該端部の近傍に前記第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、前記第2画像に基づく第4画像を前記第3位置に表示させるステップと、を備え、
前記第3位置から前記第4位置までの方向は、前記第1方向と逆方向である、表示方法。
A display method that accepts handwritten input of an image in a display area and displays an image related to the handwritten input at a position where the handwritten input is received,
Deriving handwritten information indicating whether the hand performing handwriting input is a right hand or a left hand;
After the display means accepts the handwritten input of the first image at the first position, and when the display means accepts the handwritten input of the second image at the second position, the second position from the first position to the second position. The third image based on the first image is displayed at the third position at or near the end of the display area corresponding to the one direction and the handwritten information, and then the third image is set at the fourth position. And displaying a fourth image based on the second image at the third position,
The display method, wherein a direction from the third position to the fourth position is opposite to the first direction.
表示領域内で画像の手書き入力を受け付け、該手書き入力を受け付けた位置に、該手書き入力に係る画像をコンピュータに表示させるプログラムであって、
前記プログラムは、コンピュータに、
手書き入力を行なう手が右手または左手かを表す手書き情報を導出するステップと、
前記表示手段が第1画像の手書き入力を第1位置に受け付けた後、前記表示手段が第2画像の手書き入力を第2位置に受け付けた場合、該第1位置から該第2位置までの第1方向および前記手書き情報に応じた前記表示領域の端部または該端部の近傍に前記第1画像に基づく第3画像を第3位置に表示させた後、該第3画像を第4位置に表示させ、前記第2画像に基づく第4画像を前記第3位置に表示させるステップと、を実行させ、
前記第3位置から前記第4位置までの方向は、前記第1方向と逆方向である、プログラム。
A program that accepts handwritten input of an image in a display area, and causes the computer to display an image related to the handwritten input at a position where the handwritten input is received,
The program is stored in a computer.
Deriving handwritten information indicating whether the hand performing handwriting input is a right hand or a left hand;
After the display means accepts the handwritten input of the first image at the first position, and when the display means accepts the handwritten input of the second image at the second position, the second position from the first position to the second position. The third image based on the first image is displayed at the third position at or near the end of the display area corresponding to the one direction and the handwritten information, and then the third image is set at the fourth position. Displaying a fourth image based on the second image at the third position, and
A program in which a direction from the third position to the fourth position is opposite to the first direction.
JP2012155677A 2012-07-11 2012-07-11 Information processing apparatus, display method, and program Active JP5972082B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012155677A JP5972082B2 (en) 2012-07-11 2012-07-11 Information processing apparatus, display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012155677A JP5972082B2 (en) 2012-07-11 2012-07-11 Information processing apparatus, display method, and program

Publications (2)

Publication Number Publication Date
JP2014016943A true JP2014016943A (en) 2014-01-30
JP5972082B2 JP5972082B2 (en) 2016-08-17

Family

ID=50111533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012155677A Active JP5972082B2 (en) 2012-07-11 2012-07-11 Information processing apparatus, display method, and program

Country Status (1)

Country Link
JP (1) JP5972082B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016046953A1 (en) * 2014-09-26 2016-03-31 株式会社 東芝 Electronic device, method, and program
JP2016081302A (en) * 2014-10-16 2016-05-16 キヤノン株式会社 Display control apparatus, control method thereof, program, and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0619612A (en) * 1992-07-01 1994-01-28 Matsushita Electric Ind Co Ltd Pen input/menu display device
JP2001357355A (en) * 2000-06-13 2001-12-26 Fujitsu Ltd Device and method for input of handwritten character and recording medium with program for execution of the method recorded therein
JP2006268263A (en) * 2005-03-23 2006-10-05 Hitachi Software Eng Co Ltd Electronic board system
JP2011028560A (en) * 2009-07-27 2011-02-10 Sony Corp Information processing apparatus, display method, and display program
JP2011242900A (en) * 2010-05-14 2011-12-01 Sharp Corp Character handwriting input device
JP2012032961A (en) * 2010-07-29 2012-02-16 Brother Ind Ltd Image display device, image display method and image display program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0619612A (en) * 1992-07-01 1994-01-28 Matsushita Electric Ind Co Ltd Pen input/menu display device
JP2001357355A (en) * 2000-06-13 2001-12-26 Fujitsu Ltd Device and method for input of handwritten character and recording medium with program for execution of the method recorded therein
JP2006268263A (en) * 2005-03-23 2006-10-05 Hitachi Software Eng Co Ltd Electronic board system
JP2011028560A (en) * 2009-07-27 2011-02-10 Sony Corp Information processing apparatus, display method, and display program
JP2011242900A (en) * 2010-05-14 2011-12-01 Sharp Corp Character handwriting input device
JP2012032961A (en) * 2010-07-29 2012-02-16 Brother Ind Ltd Image display device, image display method and image display program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016046953A1 (en) * 2014-09-26 2016-03-31 株式会社 東芝 Electronic device, method, and program
JPWO2016046953A1 (en) * 2014-09-26 2017-07-27 株式会社東芝 Electronic device, method and program
JP2016081302A (en) * 2014-10-16 2016-05-16 キヤノン株式会社 Display control apparatus, control method thereof, program, and recording medium

Also Published As

Publication number Publication date
JP5972082B2 (en) 2016-08-17

Similar Documents

Publication Publication Date Title
US9582106B2 (en) Method and system of providing a picture password for relatively smaller displays
US10444908B2 (en) Virtual touchpads for wearable and portable devices
JP6161078B2 (en) Detection of user input at the edge of the display area
US8749497B2 (en) Multi-touch shape drawing
JP2016530602A (en) Improving user authentication or improving user authentication
US20150078586A1 (en) User input with fingerprint sensor
US9300659B2 (en) Method and system of providing a picture password for relatively smaller displays
EP3149645A2 (en) Device for entering graphical password on small displays with cursor offset
US20130212511A1 (en) Apparatus and method for guiding handwriting input for handwriting recognition
WO2017063763A1 (en) Secure biometric authentication
US9678608B2 (en) Apparatus and method for controlling an interface based on bending
JP6272069B2 (en) Information processing apparatus, information processing method, computer program, and recording medium
JP5972082B2 (en) Information processing apparatus, display method, and program
JP2015018413A (en) Portable terminal, image display method, and program
EP3125089A1 (en) Terminal device, display control method, and program
JP6757114B2 (en) Input display device
JP5927090B2 (en) Information processing apparatus, display method, and program
JP5411912B2 (en) Character string confirmation device and character string confirmation program
US20180039810A1 (en) Semiconductor device
CN112395925B (en) Under-screen fingerprint registration method and electronic device
JP5805910B2 (en) Touch panel system
JP6549776B2 (en) Input display
JP2014049023A (en) Input device
JP5891898B2 (en) Information processing apparatus, program, and information processing method
JP5618634B2 (en) Information processing apparatus and operation method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160712

R150 Certificate of patent or registration of utility model

Ref document number: 5972082

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150