JPWO2016046953A1 - Electronic device, method and program - Google Patents
Electronic device, method and program Download PDFInfo
- Publication number
- JPWO2016046953A1 JPWO2016046953A1 JP2016549855A JP2016549855A JPWO2016046953A1 JP WO2016046953 A1 JPWO2016046953 A1 JP WO2016046953A1 JP 2016549855 A JP2016549855 A JP 2016549855A JP 2016549855 A JP2016549855 A JP 2016549855A JP WO2016046953 A1 JPWO2016046953 A1 JP WO2016046953A1
- Authority
- JP
- Japan
- Prior art keywords
- input
- screen
- handwritten
- stroke
- handwriting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 208000006011 Stroke Diseases 0.000 claims description 189
- 238000012545 processing Methods 0.000 claims description 59
- 208000023516 stroke disease Diseases 0.000 claims description 6
- 230000006870 function Effects 0.000 description 33
- 230000008569 process Effects 0.000 description 25
- 238000010586 diagram Methods 0.000 description 16
- 238000004891 communication Methods 0.000 description 11
- 230000015654 memory Effects 0.000 description 11
- 238000001514 detection method Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 9
- 238000005070 sampling Methods 0.000 description 4
- 101100309712 Arabidopsis thaliana SD11 gene Proteins 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000005674 electromagnetic induction Effects 0.000 description 3
- 101100309717 Arabidopsis thaliana SD22 gene Proteins 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000008676 import Effects 0.000 description 2
- 229920001690 polydopamine Polymers 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 230000001680 brushing effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000010813 municipal solid waste Substances 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 239000010902 straw Substances 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Character Discrimination (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
実施形態によれば、方法は、画面上の第1接触点に手が接触した状態で手書きで入力される1以上の第1ストロークに対応する第1ストロークデータを入力することと、手が第1接触点から離れた後、1以上の第1ストロークが表示される第1領域から運筆方向に第1距離離れた位置に、入力するストロークを指定するための操作に用いられるユーザインタフェースを表示することとを具備する。According to the embodiment, the method includes inputting first stroke data corresponding to one or more first strokes input by handwriting in a state where the hand contacts the first contact point on the screen; After leaving from one contact point, a user interface used for an operation for designating an input stroke is displayed at a position separated by a first distance in the stroke direction from a first area where one or more first strokes are displayed. It comprises.
Description
本発明の実施形態は、文字列を手書き入力する技術に関する。 Embodiments described herein relate generally to a technique for inputting a character string by handwriting.
近年、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDAといった文書を手書きで入力可能な種々の電子機器が開発されている。 In recent years, various electronic devices such as tablet computers, notebook personal computers, smartphones, and PDAs have been developed that can input documents by handwriting.
本発明の一形態の目的は、手書き文書を効率的に作成することが可能な電子機器、方法及びプログラムを提供することである。 An object of one embodiment of the present invention is to provide an electronic device, a method, and a program capable of efficiently creating a handwritten document.
実施形態によれば、方法は、画面上の第1接点に手が接触した状態で手書きで入力される1以上の第1ストロークに対応する第1ストロークデータを入力することと、手が前記第1接触点から離れた後、前記1以上の第1ストロークが表示される第1領域から運筆方向に第1距離離れた位置に、入力するストロークを指定するための操作に用いられるユーザインタフェースを表示することとを具備する。 According to the embodiment, the method includes inputting first stroke data corresponding to one or more first strokes input by handwriting in a state where the hand is in contact with the first contact point on the screen; After leaving one contact point, a user interface used for an operation for designating an input stroke is displayed at a position away from the first area where the one or more first strokes are displayed in the stroke direction by a first distance. Comprising.
以下、実施の形態について図面を参照して説明する。 Hereinafter, embodiments will be described with reference to the drawings.
図1は、一実施形態に係る電子機器の外観の一例を示す斜視図である。この電子機器は、例えば、ペンまたは指によって手書き入力可能なペン・ベースの携帯型電子機器である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン及びPDA等として実現され得る。図1においては、この電子機器がタブレットコンピュータとして実現されている例が示されている。以下の説明では、本実施形態に係る電子機器がタブレットコンピュータとして実現されているものとして説明する。タブレットコンピュータは、タブレットまたはスレートコンピュータとも称される携帯型電子機器である。 FIG. 1 is a perspective view illustrating an example of an external appearance of an electronic apparatus according to an embodiment. This electronic device is, for example, a pen-based portable electronic device that can be handwritten with a pen or a finger. This electronic device can be realized as a tablet computer, a notebook personal computer, a smartphone, a PDA, or the like. FIG. 1 shows an example in which this electronic device is realized as a tablet computer. In the following description, it is assumed that the electronic device according to the present embodiment is realized as a tablet computer. A tablet computer is a portable electronic device also called a tablet or a slate computer.
図1に示すタブレットコンピュータ10は、本体11とタッチスクリーンディスプレイ12とを備える。本体11は薄い箱型の筐体を有しており、タッチスクリーンディスプレイ12は当該本体の上面に重ね合わせるように取り付けられている。
A
タッチスクリーンディスプレイ12には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上のペンまたは指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば、液晶表示装置(LCD)であってもよい。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザ等を使用することができる。以下ではタッチパネル及びデジタイザの2種類のセンサの双方がタッチスクリーンディスプレイ12に組み込まれている場合を説明する。このため、タッチスクリーンディスプレイ12は、指を使用した画面に対するタッチ操作のみならず、ペン100を使用した画面に対するタッチ操作も検出することができる。
The
ペン100は、例えばデジタイザペン(電磁誘導ペン)であってもよい。ユーザは、ペン100を使用してタッチスクリーンディスプレイ12上で手書き入力操作を行うことができる(ペン入力モード)。ペン入力モードにおいては、画面上のペン100の動きの軌跡、つまり、手書き入力操作によって手書きされるストロークが求められ、これによって手書きにより入力された複数のストロークが画面上に表示される。ペン100が画面に接触されている間のペン100の動きの軌跡が1つのストロークに相当する。複数のストロークが文字、記号等を構成する。手書きされた文字、手書きされた図形、手書きされた表等に対応する多数のストロークの集合が手書き文書を構成する。
The
本実施形態では、この手書き文書は、イメージデータではなく、各ストロークの軌跡の座標列とストローク間の順序関係とを示す時系列情報(手書き文書データ)として記憶媒体に保存される。ただし、この手書き文書は、イメージデータに基づいて生成されてもよい。時系列情報の詳細については後述するが、当該時系列情報は、複数のストロークが手書きされた順を示し、かつ、複数のストロークにそれぞれ対応する複数のストロークデータを含む。換言すれば、時系列情報は、複数のストロークにそれぞれ対応する時系列のストロークデータの集合を意味する。各ストロークデータは、ある1つのストロークに対応し、このストロークの軌跡上の点それぞれに対応する座標データ系列(時系列座標)を含む。これらストロークデータの並びの順序は、ストロークそれぞれが手書きされた順序に相当する。 In the present embodiment, this handwritten document is stored in the storage medium as time series information (handwritten document data) indicating the coordinate sequence of the trajectory of each stroke and the order relationship between the strokes, not image data. However, this handwritten document may be generated based on the image data. Although details of the time-series information will be described later, the time-series information indicates the order in which a plurality of strokes are handwritten, and includes a plurality of stroke data respectively corresponding to the plurality of strokes. In other words, the time series information means a set of time series stroke data respectively corresponding to a plurality of strokes. Each stroke data corresponds to a certain stroke, and includes a coordinate data series (time series coordinates) corresponding to each point on the locus of this stroke. The order of arrangement of the stroke data corresponds to the order in which the strokes are handwritten.
タブレットコンピュータ10は、記憶媒体から既存の任意の時系列情報を読み出し、この時系列情報に対応する手書き文書、つまり、この時系列情報によって示される複数のストロークを画面上に表示することができる。時系列情報によって示される複数のストロークも、手書きによって入力される複数のストロークである。
The
更に、本実施形態に係るタブレットコンピュータ10は、ペン100を使用せずに、指で手書き入力操作を行うためのタッチ入力モードも有している。タッチ入力モードが有効な場合、ユーザは、指を使用してタッチスクリーンディスプレイ12上で手書き入力操作を行うことができる。タッチ入力モードにおいては、画面上の指の動きの軌跡、つまり、手書き入力操作によって手書きされるストロークが求められ、これによって手書きにより入力された複数のストロークが画面上に表示される。
Furthermore, the
タブレットコンピュータ10は、編集機能を有している。この編集機能は、「消しゴム」ツール、範囲選択ツール、及び他の各種ツール等を用いたユーザによる編集操作に応じて、範囲選択ツールによって選択される表示中の手書き文書内の任意の手書き部分(手書き文字、手書きマーク、手書き図形及び手書き表等)を削除または移動することができる。また、範囲選択ツールによって選択される手書き文書内の任意の手書き部分を、手書き文書を検索するための検索キーとして指定することもできる。また、範囲選択ツールによって選択される手書き文書内の任意の手書き部分に対して、手書き文字認識/手書き図形認識/手書き表認識のような認識処理を実行することもできる。
The
本実施形態では、手書き文書は、1つまたは複数のページとして管理され得る。この場合、時系列情報(手書き文書データ)を1つの画面に収まる面積単位で区切ることによって、1つの画面に収まる時系列情報のまとまりを1つのページとして記録してもよい。あるいは、ページのサイズを可変できるようにしてもよい。この場合、ページのサイズは1つの画面のサイズよりも大きい面積に広げることができるので、画面のサイズよりも大きな面積の手書き文書を1つのページとして扱うことができる。1つのページ全体をディスプレイに同時に表示できない場合は、そのページを縮小して表示するようにしてもよいし、縦横スクロールによってページ内の表示対象部分を移動するようにしてもよい。 In the present embodiment, the handwritten document can be managed as one or a plurality of pages. In this case, a group of time-series information that fits on one screen may be recorded as one page by dividing time-series information (handwritten document data) by area units that fit on one screen. Alternatively, the page size may be variable. In this case, since the page size can be expanded to an area larger than the size of one screen, a handwritten document having an area larger than the screen size can be handled as one page. When one entire page cannot be simultaneously displayed on the display, the page may be reduced and displayed, or the display target portion in the page may be moved by vertical and horizontal scrolling.
図2は、タブレットコンピュータ10と外部装置との連係動作の一例を示している。タブレットコンピュータ10は、無線LAN等の無線通信デバイスを備えており、パーソナルコンピュータ1との無線通信を実行することができる。更に、タブレットコンピュータ10は、無線通信デバイスを使用してインターネット上のサーバ2との通信を実行することもできる。サーバ2は、オンラインストレージサービス、他の各種クラウドコンピューティングサービスを実行するサーバであってもよい。
FIG. 2 shows an example of the linking operation between the
パーソナルコンピュータ1は、ハードディスクドライブ(HDD:Hard Disk Drive)のようなストレージデバイスを備えている。タブレットコンピュータ10は、時系列情報(手書き文書データ)をパーソナルコンピュータ1に送信して、パーソナルコンピュータ1のHDDに記録することができる(アップロード)。タブレットコンピュータ10とパーソナルコンピュータ1との間のセキュアな通信を確保するために、通信開始時には、パーソナルコンピュータ1がタブレットコンピュータ10を認証するようにしてもよい。この場合、タブレットコンピュータ10の画面上にユーザに対してIDまたはパスワードの入力を促すダイアログを表示してもよいし、タブレットコンピュータ10のID等を自動的にタブレットコンピュータ10からパーソナルコンピュータ1に送信してもよい。
The
これにより、タブレットコンピュータ10内のストレージの容量が少ない場合でも、タブレットコンピュータ10が多数あるいは大容量の時系列情報を扱うことが可能となる。
As a result, even when the storage capacity of the
更に、タブレットコンピュータ10は、パーソナルコンピュータ1のHDDに記録されている任意の1以上の時系列情報を読み出し(ダウンロード)、その読み出した時系列情報によって示されるストロークをタブレットコンピュータ10のタッチスクリーンディスプレイ12の画面に表示することができる。この場合、複数の時系列情報それぞれのページを縮小することによって得られるサムネイルの一覧をタッチスクリーンディスプレイ12の画面上に表示してもよいし、これらサムネイルから選ばれた1ページをタッチスクリーンディスプレイ12の画面上に通常サイズで表示してもよい。
Further, the
更に、タブレットコンピュータ10が通信する先はパーソナルコンピュータ1ではなく、上述したように、ストレージサービス等を提供するクラウド上のサーバ2であってもよい。タブレットコンピュータ10は、時系列情報(手書き文書データ)をインターネットを介してサーバ2に送信して、サーバ2のストレージデバイス2Aに記録することができる(アップロード)。更に、タブレットコンピュータ10は、サーバ2のストレージデバイス2Aに記録されている任意の時系列情報を読み出して(ダウンロード)、その時系列情報によって示されるストロークそれぞれの軌跡をタブレットコンピュータ10のタッチスクリーンディスプレイ12の画面に表示することができる。
Furthermore, the destination to which the
このように、本実施形態では、時系列情報が保存される記憶媒体は、タブレットコンピュータ10内のストレージデバイス、パーソナルコンピュータ1内のストレージデバイス、サーバ2のストレージデバイスのいずれであってもよい。
As described above, in this embodiment, the storage medium in which the time series information is stored may be any one of the storage device in the
次に、図3及び図4を参照して、ユーザによって手書きされたストローク(文字、図形及び表等)と時系列情報との関係について説明する。図3は、ペン100等を使用してタッチスクリーンディスプレイ12上に手書きされる手書き文書(手書き文字列)の一例を示している。
Next, with reference to FIG. 3 and FIG. 4, the relationship between strokes (characters, figures, tables, etc.) handwritten by the user and time-series information will be described. FIG. 3 shows an example of a handwritten document (handwritten character string) handwritten on the
手書き文書では、一旦手書きによって入力される文字や図形等の上に、更に別の文字や図形等が手書きによって入力されるというケースが多い。図3においては、「A」、「B」及び「C」の手書き文字が、この順番で手書きによって入力され、この後に、手書きの矢印が、手書き文字「A」の近傍に手書きによって入力されている。 In a handwritten document, in many cases, another character or figure is input by handwriting on the character or figure once input by handwriting. In FIG. 3, the handwritten characters “A”, “B”, and “C” are input by handwriting in this order, and then a handwritten arrow is input by handwriting near the handwritten character “A”. Yes.
手書き文字「A」は、ペン100等を使用して手書きされた2つのストローク(「∧」形状の軌跡、「−」形状の軌跡)によって、つまり、2つの軌跡によって表現される。最初に手書きされる「∧」形状のペン100の軌跡は例えば等時間間隔でリアルタイムにサンプリングされ、これによって「∧」形状のストロークの時系列座標SD11、SD12、…、SD1nが得られる。同様に、次に手書きされる「−」形状のペン100の軌跡も等時間間隔でリアルタイムにサンプリングされ、これによって「−」形状のストロークの時系列座標SD21、SD22、…、SD2nが得られる。
The handwritten character “A” is expressed by two strokes (“∧” -shaped trajectory, “−”-shaped trajectory) handwritten using the
手書き文字「B」は、ペン100等を使用して手書きされた2つのストローク、つまり、2つの軌跡によって表現される。手書き文字「C」は、ペン100等を使用して手書きされた1つのストローク、つまり、1つの軌跡によって表現される。手書きの「矢印」は、ペン100等を使用して手書きされた2つのストローク、つまり、2つの軌跡によって表現される。
The handwritten character “B” is represented by two strokes handwritten using the
図4は、図3の手書き文書に対応する時系列情報200を示している。時系列情報は、複数のストロークデータSD1、SD2、…、SD7を含む。時系列情報200内においては、これらストロークデータSD1、SD2、…、SD7は、これらのストロークが手書きされた順に時系列に並べられている。
FIG. 4 shows time-
時系列情報200において、先頭の2つのストロークデータSD1及びSD2は、手書き文字「A」の2つのストロークをそれぞれ示している。3番目及び4番目のストロークデータSD3及びSD4は、手書き文字「B」を構成する2つのストロークをそれぞれ示している。5番目のストロークデータSD5は、手書き文字「C」を構成する1つのストロークを示している。6番目及び7番目のストロークデータSD6及びSD7は、手書き「矢印」を構成する2つのストロークをそれぞれ示している。
In the
各ストロークデータは、1つのストロークに対応する座標データ系列(時系列座標)、つまり、1つのストローク軌跡上の複数のサンプリング点それぞれに対応する複数の座標を含む。各ストロークデータにおいては、複数のサンプリング点の座標はストロークが書かれた順(サンプリングされた順)に時系列に並べられている。例えば、手書き文字「A」に関しては、ストロークデータSD1は、手書き文字「A」の「∧」形状のストロークの軌跡上の点それぞれに対応する座標データ系列(時系列座標)、つまり、n個の座標データSD11、SD12、…、SD1nを含む。ストロークデータSD2は、手書き文字「A」の「−」形状のストロークの軌跡上の点それぞれに対応する座標データ系列、つまり、n個の座標データSD21、SD22、…、SD2nを含む。なお、座標データの数はストロークデータ毎に異なっていてもよい。ストロークを等時間間隔でサンプリングすると、ストロークの長さが異なっているので、サンプリング点の数も異なる。 Each stroke data includes a coordinate data series (time series coordinates) corresponding to one stroke, that is, a plurality of coordinates corresponding to each of a plurality of sampling points on one stroke locus. In each stroke data, the coordinates of a plurality of sampling points are arranged in chronological order in the order in which the strokes are written (sampled order). For example, for the handwritten character “A”, the stroke data SD1 includes coordinate data series (time series coordinates) corresponding to each point on the locus of the stroke of the “∧” shape of the handwritten character “A”, that is, n pieces of data. Coordinate data SD11, SD12,..., SD1n are included. The stroke data SD2 includes coordinate data series corresponding to each point on the trajectory of the stroke of the “−” shape of the handwritten character “A”, that is, n coordinate data SD21, SD22,. Note that the number of coordinate data may be different for each stroke data. If the strokes are sampled at equal time intervals, the lengths of the strokes are different, so the number of sampling points is also different.
各座標データは、対応する軌跡内のある1点のX座標及びY座標を示す。例えば、座標データSD11は、「∧」形状のストロークの始点のX座標(X11)及びY座標(Y11)を示す。SD1nは、「∧」形状のストロークの終点のX座標(X1n)及びY座標(Y1n)を示す。 Each coordinate data indicates the X coordinate and Y coordinate of a certain point in the corresponding locus. For example, the coordinate data SD11 indicates the X coordinate (X11) and the Y coordinate (Y11) of the start point of the “∧” -shaped stroke. SD1n indicates the X coordinate (X1n) and Y coordinate (Y1n) of the end point of the “∧” -shaped stroke.
各座標データは、その座標に対応する点が手書きされた時点(サンプリングタイミング)に対応するタイムスタンプ情報Tを含んでいてもよい。手書きされた時点は、絶対時間(例えば、年月日時分秒)またはある時点を基準とした相対時間のいずれであってもよい。例えば、各ストロークデータに、ストロークが書き始められた絶対時間をタイムスタンプ情報として付加し、更に、ストロークデータ内の各座標データに、当該絶対時間との差分を示す相対時間をタイムスタンプ情報Tとして付加してもよい。 Each coordinate data may include time stamp information T corresponding to the time point (sampling timing) when the point corresponding to the coordinates is handwritten. The handwritten time may be either absolute time (for example, year / month / day / hour / minute / second) or relative time based on a certain time. For example, the absolute time when the stroke is started to be written is added as time stamp information to each stroke data, and the relative time indicating the difference from the absolute time is added as time stamp information T to each coordinate data in the stroke data. It may be added.
このように、各座標データにタイムスタンプ情報Tが追加された時系列情報を使用することにより、ストローク間の時間的関係をより精度よく表すことができる。図4には示されていないが、各座標データには、筆圧を示す情報(Z)を追加してもよい。 As described above, by using the time series information in which the time stamp information T is added to each coordinate data, the temporal relationship between the strokes can be expressed more accurately. Although not shown in FIG. 4, information (Z) indicating writing pressure may be added to each coordinate data.
図4で説明したような構造を有する時系列情報200は、個々のストロークの筆跡だけでなく、ストローク間の時間的関係も表すことができる。したがって、この時系列情報200を使用することにより、図3に示すようにたとえ手書き「矢印」の先端部が手書き文字「A」上に重ねてまたは手書き文字「A」に近接して書かれたとしても、当該手書き文字「A」と手書き「矢印」の先端部とを異なる文字または図形として扱うことが可能となる。
The
更に、本実施形態では、上述したように、手書き文書データは、イメージまたは文字認識結果ではなく、時系列のストロークデータの集合から構成される時系列情報200として記憶されるので、手書き文字の言語に依存せずに手書き文字を扱うことができる。したがって、本実施形態における時系列情報200の構造は、使用言語の異なる世界中の様々な国で共通に使用できる。
Further, in the present embodiment, as described above, handwritten document data is not stored as an image or character recognition result, but is stored as time-
図5は、タブレットコンピュータ10のシステム構成を示す図である。図5に示すように、タブレットコンピュータ10は、CPU101、不揮発性メモリ102、主メモリ103、BIOS−ROM104、システムコントローラ105、グラフィクスコントローラ106、無線通信デバイス107及びEC等を備える。また、タブレットコンピュータ10において、図1に示すタッチスクリーンディスプレイ12は、LCD12A、タッチパネル12B及びデジタイザ12Cを備える。
FIG. 5 is a diagram showing a system configuration of the
CPU101は、タブレットコンピュータ10内の各種モジュールの動作を制御するプロセッサである。CPU101は、ストローレジデバイスである不揮発性メモリ102から主メモリ103にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS)103a及び各種アプリケーションプログラムが含まれている。各種アプリケーションプログラムには、手書きノートアプリケーションプログラム103bが含まれている。以下では、手書き文書データを手書きノートとも称する。
The
この手書きノートアプリケーションプログラム103bは、上述の手書き文書データを作成及び表示する機能、手書き文書データを編集する機能、所望の手書き部分を含む手書き文書データや、ある手書き文書データ内の所望の手書き部分を検索するための手書き文書検索機能等を有している。
This handwritten
更に、手書きノートアプリケーションプログラム103bは、例えばタブレットコンピュータ10の画面上で入力するストロークを指定するための操作に用いられるユーザインタフェースを表示する機能を有しているものとする。なお、このユーザインタフェースには、例えばストローク(手書き文字列)のフォント、色彩、スタイル(太さ)及びサイズ等を指定するための操作及び後述する手書き入力の候補を指定するための操作に用いられるユーザインタフェース等が含まれる。更に、このユーザインタフェースは、例えば後述する手書きされたストローク(手書き文字列)の入力の確定を指定するための操作及び当該ストロークの入力のキャンセルを指定するための操作に用いられるユーザインタフェース等であってもよい。すなわち、本実施形態において表示されるユーザインタフェースは、ユーザによる手書き入力操作を補助する機能(以下、入力補助機能と表記)を利用するための操作に用いられるユーザインタフェース(以下、入力補助UIと表記)を含む。以下の説明においては、本実施形態において表示されるユーザインタフェースは入力補助UIであるものとして説明するが、当該ユーザインタフェースはユーザによる手書き入力操作時に表示されるものであればよい。
Further, it is assumed that the handwritten
CPU101は、BIOS−ROM104に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。
The
システムコントローラ105は、CPU101のローカルバスと各種コンポーネント・モジュールとの間を接続するデバイスである。システムコントローラ105には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。システムコントローラ105は、PCI EXPRESS規格のシリアルバス等を介してグラフィクスコントローラ106との通信を実行する機能も有している。
The
グラフィクスコントローラ106は、タブレットコンピュータ10のディスプレイモニタとして使用されるLCD12Aを制御する表示コントローラである。グラフィクスコントローラ106によって生成される表示信号はLCD12Aに送られる。LCD12Aは、表示信号に基づいて画面イメージを表示する。LCD12A、タッチパネル12B及びデジタイザ12Cは互いに重ね合わされている。タッチパネル12Bは、LCD12Aの画面上で入力を行うための静電容量式のポインティングデバイスである。指が接触される画面上の接触位置及び当該接触位置の動き等は、タッチパネル12Bによって検出される。また、このタッチパネル12Bによれば、例えば画面上で手書き入力操作が行われる際の当該画面上におけるユーザの手の接触等も検出することができる。デジタイザ12Cは、LCD12Aの画面上で入力を行うための電磁誘導式のポインティングデバイスである。ペン(デジタイザペン)100が接触される画面上の接触位置及び当該接触位置の動き等は、デジタイザ12Cによって検出される。
The
無線通信デバイス107は、無線LANまたは3G移動通信等の無線通信を実行するように構成されたデバイスである。
The
EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じてタブレットコンピュータ10を電源オンまたは電源オフする機能を有している。
The
次に、上述した手書きノートアプリケーションプログラム103bによってユーザに提示されるいくつかの代表的な画面の例を説明する。
Next, examples of some typical screens presented to the user by the above-described handwritten
図6は、手書きノートアプリケーションプログラム103bのホーム画面の一例を示す。ホーム画面は複数の手書き文書データを扱うための基本画面であり、ノートの管理や、アプリケーション全体の設定を行うことができる。
FIG. 6 shows an example of the home screen of the handwritten
ホーム画面は、デスクトップ画面領域70と引き出し画面領域71とを含む。デスクトップ画面領域70は、作業中の複数の手書きノートに対応する複数のノートアイコン801〜805を表示するテンポラリ領域である。ノートアイコン801〜805の各々は、対応する手書きノート内のあるページのサムネイルを表示する。デスクトップ画面領域70は、更に、ペンアイコン771、カレンダーアイコン772、スクラップノート(ギャラリー)アイコン773及びタグ(ラベル)アイコン774を表示する。
The home screen includes a
ペンアイコン771は、表示画面をホーム画面からページ編集画面に切り替えるためのグラフィカルユーザインタフェース(GUI)である。カレンダーアイコン772は、現在の日付を示すアイコンである。スクラップノートアイコン773は、他のアプリケーションプログラムからまたは外部ファイルから取り込んだデータ(スクラップデータまたはギャラリーデータ)を閲覧するためのGUIである。タグアイコン774は、任意の手書きノート内の任意のページにラベル(タグ)を貼り付けるためのGUIである。
The
引き出し画面領域71は、作成済みの全ての手書きノートを格納するためのストレージ領域を閲覧するための表示領域である。引き出し画面領域71は、全ての手書きノート内のいくつかの手書きノートに対応するノートアイコン80A、80B及び80Cを表示する。ノートアイコン80A、80B及び80Cの各々は、対応する手書きノート内のあるページのサムネイルを表示する。手書きノートアプリケーションプログラム103bは、ペン100または指を使用してユーザによって行われる引き出し画面領域71上のあるジェスチャ(例えば、スワイプジェスチャ等)を検出することができる。このジェスチャ(例えば、スワイプジェスチャ等)の検出に応答して、手書きノートアプリケーションプログラム103bは、引き出し画面領域71上の画面イメージを左方向または右方向にスクロールする。これにより、引き出し画面領域71に任意の手書きノートそれぞれに対応するノートアイコンを表示することができる。
The
手書きノートアプリケーションプログラム103bは、ペン100または指を使用してユーザによって行われる引き出し画面領域71のノートアイコン上の他のジェスチャ(例えば、タップジェスチャ等)を検出することができる。引き出し画面領域71上のあるノートアイコン上のジェスチャ(例えば、タップジェスチャ等)の検出に応答して、手書きノートアプリケーションプログラム103bは、このノートアイコンをデスクトップ画面領域70の中央部に移動する。そして、手書きノートアプリケーションプログラム103bは、このノートアイコンに対応する手書きノートを選択し、デスクトップ画面の代わりに図7に示すノートプレビュー画面を表示する。図7に示すノートプレビュー画面は、選択された手書きノート内の任意のページを閲覧可能な画面である。
The handwritten
更に、手書きノートアプリケーションプログラム103bは、ペン100または指を使用してユーザによって行われるデスクトップ画面領域70上のジェスチャ(例えば、タップジェスチャ等)も検出することができる。デスクトップ画面領域70の中央部に位置するノートアイコン上のジェスチャ(例えば、タップジェスチャ等)の検出に応答して、手書きノートアプリケーションプログラム103bは、中央部に位置するノートアイコンに対応する手書きノートを選択し、そして、デスクトップ画面の代わりに図7に示すノートプレビュー画面を表示する。
Furthermore, the handwritten
更に、ホーム画面は、メニューを表示することができる。このメニューは、画面の下部、例えば引き出し画面領域71に表示されるノート一覧ボタン81A、ノート作成ボタン81B、ノート削除ボタン81C、検索ボタン81D及び設定ボタン81Eを備える。ノート一覧ボタン81Aは、手書きノートの一覧を表示するためのボタンである。ノート作成ボタン81Bは、新しい手書きノートを作成(追加)するためのボタンである。ノート削除ボタン81Cは、手書きノートを削除するためのボタンである。検索ボタン81Dは、検索画面(検索ダイアログ)を開くためのボタンである。設定ボタン81Eは、アプリケーションの設定画面を開くためのボタンである。
Further, the home screen can display a menu. This menu includes a
なお、図示しないが、引き出し画面領域71の下にも、戻るボタン、ホームボタン、リーセントアプリケーションボタンが表示される。
Although not shown, a return button, a home button, and a recent application button are also displayed below the
図8は、設定ボタン81Eがペン100または指でタップされた際に開かれる設定画面の一例を示す。
FIG. 8 shows an example of a setting screen that is opened when the
この設定画面には、様々な設定項目が表示される。これら設定項目には、「バックアップと復元」、「入力モード(ペンまたはタッチ入力モード)」、「ライセンス情報」及び「ヘルプ」等が含まれる。 Various setting items are displayed on this setting screen. These setting items include “backup and restoration”, “input mode (pen or touch input mode)”, “license information”, “help”, and the like.
ホーム画面においてノート作成ボタン81Bがペン100または指でタップされるとノート作成画面が表示される。ここで、タイトル欄にノートの名前を手書き入力する。なお、ノートの表紙と用紙とを選択することができる。作成ボタンを押すと、新規なノートが作成され、当該作成されたノートは引き出し画面領域71に置かれる。
When
図7は、上述したノートプレビュー画面の一例を示す。ノートプレビュー画面は、選択された手書きノート内の任意のページを閲覧可能な画面である。ここでは、ホーム画面のデスクトップ画面領域70のノートアイコン801に対応する手書きノートが選択された場合を説明する。この場合、手書きノートアプリケーションプログラム103bは、この手書きノートに含まれる複数のページ901、902、903、904及び905を、これらページ901、902、903、904及び905それぞれの少なくとも一部分が視認可能で、かつ、これらページ901、902、903、904及び905が重なった形態で表示する。
FIG. 7 shows an example of the above-described note preview screen. The note preview screen is a screen capable of browsing an arbitrary page in the selected handwritten note. Here, a case where a handwritten note corresponding to the
ノートプレビュー画面は、更に、上述のペンアイコン771、カレンダーアイコン772及びスクラップノートアイコン773を表示する。
The note preview screen further displays the
ノートプレビュー画面は、更に、メニューを画面下部に表示することができる。このメニューは、ホームボタン82A、ページ一覧ボタン82B、ページ追加ボタン82C、ページ編集ボタン82D、ページ削除ボタン82E、ラベルボタン82F、検索ボタン82G及びプロパティ表示ボタン82Hを備える。ホームボタン82Aは、ノートのプレビューを閉じてホーム画面を表示するためのボタンである。ページ一覧ボタン82Bは、現在選択されている手書きノート内のページの一覧を表示するためのボタンである。ページ追加ボタン82Cは、新しいページを作成(追加)するためのボタンである。ページ編集ボタン82Dは、ページ編集画面を表示するためのボタンである。ページ削除ボタン82Eは、ページを削除するためのボタンである。ラベルボタン82Fは、使用可能なラベルの種類の一覧を表示するためのボタンである。検索ボタン82Gは、検索画面を表示するためのボタンである。プロパティ表示ボタン82Hは、このノートのプロパティを表示するためのボタンである。
The note preview screen can further display a menu at the bottom of the screen. This menu includes a
手書きノートアプリケーションプログラム103bは、ユーザによって行われるノートプレビュー画面上の様々なジェスチャを検出することができる。例えば、あるジェスチャの検出に応答して、手書きノートアプリケーションプログラム103bは、一番上に表示されるべきページを任意のページに変更する(ページ送り、ページ戻し)。また、一番上のページ上で行われるあるジェスチャ(例えば、タップジェスチャ)の検出に応答して、またはペンアイコン771上で行われるジェスチャ(例えば、タップジェスチャ)の検出に応答して、あるいは編集ボタン82D上で行われるあるジェスチャ(例えば、タップジェスチャ)の検出に応答して、手書きノートアプリケーションプログラム103bは、一番上のページを選択し、そしてノートプレビュー画面の代わりに、図9に示すページ編集画面を表示する。
The handwritten
図9に示すページ編集画面は、手書きノート内のページ(手書きページ)の新規作成、及び既存のページの閲覧及び編集が可能な画面である。図7に示すノートプレビュー画面上のページ901が選択された場合には、図9に示すように、ページ編集画面は、ページ901の内容を表示する。
The page editing screen shown in FIG. 9 is a screen that allows new creation of a page (handwritten page) in a handwritten note and browsing and editing of an existing page. When the
このページ編集画面において、破線で囲まれた矩形の領域500は、手書き可能な手書き入力領域である。手書き入力領域500においては、デジタイザ12Cからの入力イベントは手書きストロークの表示(描画)のために使用され、タップ等のジェスチャを示すイベントとしては使用されない。一方、ページ編集画面における手書き入力領域500以外の領域においては、デジタイザ12Cからの入力イベントはタップ等のジェスチャを示すイベントとしても使用され得る。
In this page editing screen, a
タッチパネル12Bからの入力イベントは、手書きストロークの表示(描画)には使用されず、タップ及びスワイプ等のジェスチャを示すイベントとして使用される。
An input event from the
ページ編集画面は、更に、ユーザによって予め登録された3種類のペン501〜503と、範囲選択ペン504、消しゴムペン505とを含むクイックセレクトメニューを手書き入力領域500外の画面上部に表示する。ここでは、黒ペン501、赤ペン502及びマーカー503がユーザによって予め登録されている場合が説明されている。ユーザは、ペン100または指でクイックセレクトメニュー内のあるペン(ボタン)をタップすることにより、使用するペンの種類を切り替えることができる。例えば、黒ペン501がユーザによるペン100または指を使用したタップジェスチャによって選択された状態で、ペン100を用いた手書き入力操作がページ編集画面上で行われると、手書きノートアプリケーションプログラム103bは、ペン100の動きに合わせて黒色のストローク(軌跡)をページ編集画面上に表示する。
The page editing screen further displays a quick select menu including three types of
クイックセレクトメニュー内の上述の3種類のペンは、ペン100のサイドボタン(図示せず)の操作によっても切り替えることができる。クイックセレクトメニュー内の上述の3種類のペンの各々には、よく使うペンの色やペンの太さの組み合わせを設定することができる。
The above-mentioned three types of pens in the quick select menu can be switched by operating a side button (not shown) of the
ページ編集画面は、更に、メニューボタン511、ページ戻し(ノートプレビュー画面に戻る)ボタン512及び新規ページ追加ボタン513を、手書き入力領域500外の画面下部に表示する。メニューボタン511は、メニューを表示するためのボタンである。
The page editing screen further displays a
このメニューは、例えば、このページをゴミ箱に入れる、コピーやカットしたページの一部を貼り付ける、検索画面を開く、エクスポートサブメニューを表示する、インポートサブメニューを表示する、ページをテキストに変換してメールを送る、ペンケースを表示する等のボタンを表示してもよい。エクスポートサブメニューは、例えば、ページ編集画面上に表示されている手書きページを認識して電子文書ファイル、プレゼンテーションファイル、画像ファイル等に変換する機能、あるいはページを画像ファイルに変換して他のアプリケーションと共有する機能をユーザに選択させる。インポートサブメニューは、例えば、メモギャラリーからメモをインポートする機能、あるいはギャラリーから画像をインポートする機能をユーザに選択させる。ペンケースは、クイックセレクトメニュー内の3種類のペンの各々の色(描画される線の色)及び太さ(描画される線の太さ)を変更可能なペン設定画面を呼び出すためのボタンである。 This menu includes, for example, putting this page in the trash, pasting a part of the copied or cut page, opening the search screen, displaying the export submenu, displaying the import submenu, converting the page to text Buttons for sending an e-mail and displaying a pen case may be displayed. The export submenu is, for example, a function for recognizing a handwritten page displayed on the page editing screen and converting it into an electronic document file, presentation file, image file, etc., or converting a page into an image file and other applications. Have users select the features to share. For example, the import submenu allows the user to select a function for importing a memo from the memo gallery or a function for importing an image from the gallery. The pen case is a button for calling up the pen setting screen that allows you to change the color (color of the line to be drawn) and thickness (thickness of the line to be drawn) of each of the three types of pens in the quick select menu. is there.
図10は、検索画面(検索ダイアログ)の例を示す。図10では、図7に示すノートプレビュー画面上で検索ボタン82Gが選択され、当該ノートプレビュー画面上に検索画面(検索ダイアログ)が開かれた場合が説明されている。
FIG. 10 shows an example of a search screen (search dialog). FIG. 10 illustrates a case where the
検索画面は、検索キー入力領域530、筆跡検索ボタン531、テキスト検索ボタン532、デリートボタン533及び検索実行ボタン534を表示する。筆跡検索ボタン531は、筆跡検索を選択するためのボタンである。テキスト検索ボタン532は、テキスト検索を選択するためのボタンである。検索実行ボタン534は、検索処理の実行を要求するためのボタンである。
The search screen displays a search
筆跡検索においては、検索キー入力領域530は、検索キーとすべき文字列、図形及び表等を手書きするための入力領域として使用される。図10においては、検索キー入力領域530に手書き文字列「Determine」が検索キーとして入力されている。ユーザは、手書き文字列に限らず、手書き図形及び手書き表等を検索キー入力領域530にペン100で手書きすることができる。検索キー入力領域530に手書き文字列「Determine」が検索キーとして入力された状態で検索実行ボタン534がユーザによって選択されると、手書き文字列「Determine」を構成するストローク集合(クエリーストローク集合)を用いて、このクエリーストローク集合に対応するストローク集合を含む手書き文書(ノート)を検索するための筆跡検索が実行される。筆跡検索では、ストローク間のマッチングによって、クエリーストローク集合に類似するストローク集合が検索される。クエリーストローク集合とある別のストローク集合との間の類似度の算出においては、DP(Dynamic Programming)マッチングを使用してもよい。
In handwriting search, the search
テキスト検索においては、例えばソフトウェアキーボードが画面上に表示される。ユーザは、ソフトウェアキーボードを操作することによって任意のテキスト(文字列)を検索キーとして検索キー入力領域530に入力することができる。検索キー入力領域530にテキストが検索キーとして入力された状態で検索実行ボタン534がユーザによって選択されると、このテキスト(クエリーテキスト)を表すストローク集合を含む手書きノートを検索するためのテキスト検索が実行される。
In text search, for example, a software keyboard is displayed on the screen. The user can input an arbitrary text (character string) to the search
筆跡検索/テキスト検索は、全ての手書き文書を対象に実行することもできるし、選択された手書き文書のみを対象に実行することもできる。筆跡検索/テキスト検索が実行されると、検索結果画面が表示される。検索結果画面においては、クエリーストローク集合(またはクエリーテキスト)に対応するストローク集合を含む手書き文書(ページ)の一覧が表示される。なお、ヒットワード(クエリーストローク集合またはクエリーテキストに対応するストローク集合)は、強調表示される。 The handwriting search / text search can be executed for all handwritten documents, or can be executed only for selected handwritten documents. When handwriting search / text search is executed, a search result screen is displayed. On the search result screen, a list of handwritten documents (pages) including a stroke set corresponding to the query stroke set (or query text) is displayed. Note that hit words (a stroke set corresponding to a query stroke set or a query text) are highlighted.
次に、図11を参照して、タブレットコンピュータ10によって実行される手書きノートアプリケーションプログラム103bの機能構成について説明する。
Next, the functional configuration of the handwritten
手書きノートアプリケーションプログラム103bは、手書き文書データを扱うことが可能なWYSIWYGアプリケーションである。この手書きノートアプリケーションプログラム103bは、例えば、表示処理部301、時系列情報生成部302、編集処理部303、ページ保存処理部304、ページ取得処理部305及び作業メモリ401等を備える。表示処理部301は、手書きデータ入力部301A、筆跡描画部301B及びUI表示処理部301Cを含む。
The handwritten
上述したタッチパネル12Bは、「タッチ(接触)」、「移動(スライド)」及び「リリース」等のイベントの発生を検出するように構成されている。「タッチ(接触)」は、画面上のオブジェクト(指)が接触したことを示すイベントである。「移動(スライド)」は、画面上にオブジェクト(指)が接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面からオブジェクト(指)が離されたことを示すイベントである。
The
上述したデジタイザ12Cも、「タッチ(接触)」、「移動(スライド)」及び「リリース」等のイベントの発生を検出するように構成されている。「タッチ(接触)」は、画面上にオブジェクト(ペン100)が接触したことを示すイベントである。「移動(スライド)」は、画面上にオブジェクト(ペン100)が接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面からオブジェクト(ペン100)が離されたことを示すイベントである。
The above-described
手書きノートアプリケーションプログラム103bは、手書きページデータの作成、閲覧及び編集を行うためのページ編集画面をタッチスクリーンディスプレイ12上に表示する。
The handwritten
表示処理部301及び時系列情報生成部302は、デジタイザ12Cによって発生される「タッチ(接触)」、「移動(スライド)」または「リリース」のイベントを受信し、これによって手書き入力操作を検出する。「タッチ(接触)」イベントには、接触位置の座標が含まれている。「移動(スライド)」イベントには、移動先の接触位置の座標が含まれている。したがって、表示処理部301及び時系列情報生成部302は、デジタイザ12Cから接触位置の動きの軌跡に対応する座標列を受信することができる。
The
表示処理部301は、デジタイザ12Cを用いて検出される画面上のオブジェクト(ペン100)の動きに応じて手書きストロークを画面上に表示する。この表示処理部301により画面にペン100が接触している間のペン100の軌跡、つまり、各ストロークの軌跡がページ編集画面上に表示される。
The
時系列情報生成部302は、デジタイザ12Cから出力される上述の座標列を受信し、この座標列に基づいて、図4において詳述したような構造を有する時系列情報(座標データ系列)を含む手書きデータを生成する。時系列情報生成部302は、生成された手書きデータを作業メモリ401に一時保存する。
The time series
編集処理部303は、現在表示中の手書きページを編集するための処理を実行する。すなわち、編集処理部303は、タッチスクリーンディスプレイ12上でユーザによって行われる編集操作及び手書き入力操作に応じて、現在表示中の手書きページに新たなストローク(新たな手書き文字及び新たな手書きマーク等)を追加する処理、表示されている複数のストローク内の1以上のストロークを削除または移動する処理等を含む編集処理を実行する。更に、編集処理部303は、編集処理の結果を表示中の時系列情報に反映するために作業メモリ401内の時系列情報を更新する。
The
ページ保存処理部304は、作成中の手書きページ上の複数の手書きストロークに対応する複数のストロークデータを含む手書きページデータを記憶媒体402に保存する。記憶媒体402は、例えばタブレットコンピュータ10内のストレージデバイスであってもよいし、例えばサーバ(コンピュータ)2のストレージデバイスであってもよい。
The page
ページ取得処理部305は、記憶媒体402から任意の手書きページデータを取得する。この取得された手書きページデータは、表示処理部301に送られる。表示処理部301は、手書きページデータに含まれる複数のストロークデータに対応する複数のストロークを画面上に表示する。
The page
次に、図11に示す表示処理部301の詳細について説明する。
前述したように、タッチスクリーンディスプレイ12は、画面に対するタッチ操作をタッチパネル12Bまたはデジタイザ12Cで検出する。手書きデータ入力部301Aは、タッチパネル12Bまたはデジタイザ12Cから出力される検出信号を入力するモジュールである。検出信号には、タッチ位置の座標情報(X,Y)が含まれている。このような検出信号を時系列順に入力することによって、手書きデータ入力部301Aは、手書き入力操作に応じた(つまり、手書きで記載される)ストロークに対応するストロークデータを入力する。手書きデータ入力部301Aによって入力されたストロークデータ(検出信号)は、筆跡描画部301Bに供給される。Next, details of the
As described above, the
筆跡描画部301Bは、手書き入力の軌跡(筆跡)を描画してタッチスクリーンディスプレイ12のLCD12Aに表示するモジュールである。筆跡描画部301Bは、手書きデータ入力部301Aからのストロークデータ(検出信号)に基づき、手書き入力の軌跡(筆跡)に対応する線分を描画する。
The
UI表示処理部301Cは、手書きデータ入力部301Aによって入力されたストロークデータが例えば上述したページ編集画面(上の手書き入力領域500)に対する手書き入力操作に応じたストロークに対応するものである場合に、上述した入力補助UIを表示するモジュールである。
When the stroke data input by the handwriting data input unit 301A corresponds to a stroke corresponding to a handwriting input operation on the page editing screen (upper handwriting input area 500) described above, for example, the UI
ここで、図12を参照して、ペン100を使用してタッチスクリーンディスプレイ12の画面上で手書き入力操作を行う(つまり、1以上のストロークを手書きで記載する)場合におけるユーザの操作領域の一例について説明する。
Here, with reference to FIG. 12, an example of a user operation area when a
図12においては、ユーザがペン100を使用して手書き文字列を横書きで記載する例が示されている。ここでは、手書き文字列を横書きで記載する場合の運筆方向はユーザから見て左から右方向である。なお、言語によっては、運筆方向はユーザから見て右から左方向であっても構わない。
FIG. 12 shows an example in which the user writes a handwritten character string in horizontal writing using the
図12に示す領域1001は、タッチスクリーンディスプレイ12上で手書き入力操作を行う際に、ユーザの手が当該タッチスクリーンディスプレイ12上で接触する領域である。
An
領域1002は、ユーザの手が上記した領域1001に接触している状態で当該ユーザがペン100のペン先を動かすことができる最大の領域(手書き入力可能領域)である。なお、ユーザは領域1002の範囲内で手書き入力操作を行うことは可能であるが、当該領域1002の外周付近(例えば、上部及び下部等)においては、ペン先を動かすことができる最大の距離となってしまうため、手書き入力操作が比較的困難となる。
The
これに対して、領域1003は、上記した領域1002のうち、手書き入力操作が比較的困難となる領域を除いた領域(つまり、容易に手書き入力操作を行うことが可能な領域)である。すなわち、領域1003は、上記した領域1001にユーザの手が接触している状態において手書きでストロークを記載するのに最適な領域であり、ユーザが操作しやすいと感じられる領域である。
On the other hand, the
ここで、本実施形態においては、上記した入力補助UIを介して、手書き入力操作を補助する機能を利用することができる。この入力補助UIは、ユーザの操作性を考慮すると、上記した領域1003内に表示することが好ましい。
Here, in the present embodiment, a function for assisting a handwriting input operation can be used via the input assist UI described above. This input auxiliary UI is preferably displayed in the above-described
しかしながら、入力補助UIに対する操作を行う必要がない場合、領域1003内に表示された入力補助UIは、ユーザによる手書き入力操作の妨げとなる可能性が高い。
However, when there is no need to perform an operation on the input auxiliary UI, the input auxiliary UI displayed in the
これに対して、手書き入力操作の妨げとなることを回避するために入力補助UIを例えば領域1003以外の領域1002に表示した場合には、当該入力補助UIに対する操作が困難となる。
On the other hand, when the input auxiliary UI is displayed in, for example, the
そこで、本実施形態において、UI表示処理部301Cは、領域1001にユーザの手が接触している状態において手書き入力操作が行われる領域1003(第1領域)から運筆方向に所定距離(第1距離)離れた位置に入力補助UIを表示するものとする。この入力補助UIの具体的な表示例については後述する。
Therefore, in the present embodiment, the UI
なお、図11においては図示されていないが、手書きノートアプリケーションプログラム103bは、上記した以外に手書き入力操作に応じた1以上のストロークに基づいて特定されるストローク集合をユーザによる手書き入力の候補として例えばページ編集画面上に表示する候補表示処理部や上述した筆跡検索及びテキスト検索等を実行するための検索処理部等を備える。
Although not shown in FIG. 11, the handwritten
以下、本実施形態に係るタブレットコンピュータ10の動作について説明する。ここでは、本実施形態に係るタブレットコンピュータ10によって実行される処理のうち、上述した手書き入力操作時(つまり、手書きでストロークが記載される際)に入力補助UIを表示する処理(以下、入力補助UI表示処理と表記)について主に説明する。
Hereinafter, the operation of the
図13のフローチャートを参照して、入力補助UI表示処理の処理手順の一例について説明する。なお、入力補助UI表示処理は、上記したページ編集画面上の手書き入力領域500において手書き入力操作に応じたストロークに対応するストロークデータが入力される際に実行される。
With reference to the flowchart of FIG. 13, an example of the processing procedure of the input auxiliary UI display processing will be described. The input auxiliary UI display process is executed when stroke data corresponding to a stroke corresponding to a handwriting input operation is input in the
まず、手書きデータ入力部301Aは、ユーザによる手書き入力操作に応じた1以上のストロークに対応するストロークデータを入力する(ブロックB1)。このように手書きデータ入力部301Aによってストロークデータが入力された場合、筆跡描画部301Bは、当該ストロークデータに基づいて、手書き入力操作に応じたストローク(手書き入力の軌跡に対応する線分)を描画する処理を実行する。
First, the handwritten data input unit 301A inputs stroke data corresponding to one or more strokes according to a handwriting input operation by the user (block B1). When stroke data is input by the handwriting data input unit 301A in this way, the
なお、このように手書き入力操作が行われることによってストロークデータが入力される場合、ユーザの手はタッチスクリーンディスプレイ12の画面上に接触した状態であるものとする。以下の説明においては、ブロックB1においてストロークデータが入力される際にユーザの手が接触している画面上の点を第1接触点と称する。この第1接触点(の座標)は、上述した図12に示す領域1001等に基づいてタッチスクリーンディスプレイ12に備えられるタッチパネル12Bによって検出可能である。
When stroke data is input by performing the handwriting input operation in this way, it is assumed that the user's hand is in contact with the screen of the
次に、UI表示処理部301Cは、タッチパネル12Bからの入力イベントに基づいて、タッチスクリーンディスプレイ12の画面上からユーザの手が離れたか否かを判定する(ブロックB2)。
Next, the UI
タッチスクリーンディスプレイ12の画面上からユーザの手が離れていないと判定された場合(ブロックB2のNO)、ユーザの手が第1接触点に接触した状態のまま手書き入力操作が継続されているものとして、上述したブロックB1に戻って処理が繰り返される。すなわち、本実施形態においては、タッチスクリーンディスプレイ12の画面上にユーザの手が接触した状態が継続している間は入力補助UIは表示されない(つまり、非表示である)。
When it is determined that the user's hand is not separated from the screen of the touch screen display 12 (NO in block B2), the handwriting input operation is continued while the user's hand is in contact with the first contact point As described above, the processing is repeated after returning to the above-described block B1. That is, in the present embodiment, the input auxiliary UI is not displayed (that is, not displayed) while the state in which the user's hand is in contact with the screen of the
ここで、ユーザがペン100を使用して比較的長い文字列(ストローク集合)をタッチスクリーンディスプレイ12の画面上で記載する場合、ユーザは、運筆のために手を一旦当該画面上から離し、次の文字(列)の記載のために再度当該画面上に手を接触させるという動作(以下、運筆動作と表記)を行う場合が多い。
Here, when the user describes a relatively long character string (stroke set) on the screen of the
本実施形態においては、このような運筆動作を判別するために、上記したブロックB2においてタッチスクリーンディスプレイ12の画面上からユーザの手が離れたと判定された場合(ブロックB2のYES)、UI表示処理部301Cは、タッチスクリーンディスプレイ12の画面上に再びユーザの手が接触したか否かを判定する(ブロックB3)。
In this embodiment, when it is determined that the user's hand has been removed from the screen of the
タッチスクリーンディスプレイ12の画面上に再びユーザの手が接触したと判定された場合(ブロックB3のYES)、UI表示処理部301Cは、上記した運筆動作が行われたと判別することができる。以下の説明においては、このような運筆動作が行われた後にユーザの手が接触している画面上の点を第2接触点と称する。この第2接触点(の座標)は、上記した第1接触点と同様に、タッチパネル12Bによって検出可能である。
When it is determined that the user's hand has come into contact with the screen of the
なお、ユーザの手が一旦画面上から離れた後に当該ユーザの手が再度画面上に接触したとしても、当該ユーザの手の動きは上記した運筆動作によるものではない可能性もある。よって、運筆動作の判別精度を向上させるために、例えば第2接触点の位置が第1接触点から予め定められた距離の範囲内で、かつ、例えば運筆方向にある場合にのみ運筆動作が行われたと判別するようにしてもよい。なお、運筆方向は、ブロックB1において入力されたストロークデータ等から判別することができるものとする。 Even if the user's hand once touches the screen after the user's hand has left the screen, the movement of the user's hand may not be due to the above-described handwriting action. Therefore, in order to improve the discrimination accuracy of the stroke operation, for example, the stroke operation is performed only when the position of the second contact point is within a predetermined distance from the first contact point and in the stroke direction, for example. You may make it discriminate | determine that it was broken. The stroke direction can be determined from the stroke data input in the block B1.
このように運筆動作が行われたと判別された場合、UI表示処理部301Cは、上述した入力補助UIを表示する位置(入力補助UIの表示位置)を決定する(ブロックB4)。この場合、UI表示処理部301Cは、例えば上記した画面上の第1接触点にユーザの手が接触した状態において手書き入力操作が行われる領域(例えば、図12に示す領域1003)から運筆方向に所定距離離れた位置を入力補助UIの表示位置として決定する。
When it is determined that the stroke operation has been performed as described above, the UI
ここで、図14を参照して、入力補助UIの表示位置の決定処理(以下、第1の決定処理と表記)について詳細に説明する。ここでは、上述した図12と同様の部分には同一参照符号を付して、その詳しい説明を省略する。 Here, with reference to FIG. 14, the determination process of the display position of the input auxiliary UI (hereinafter referred to as the first determination process) will be described in detail. Here, the same parts as those in FIG. 12 described above are denoted by the same reference numerals, and detailed description thereof is omitted.
図14に示す領域1004は、画面上の領域1001にユーザの手が接触した状態で手書き入力操作が行われた後に、運筆動作により手を移動して手書き入力操作を行う際に当該ユーザの手が接触する領域である。なお、図14において点1001a及び点1004aは、それぞれ上記した第1接触点及び第2接触点を示す。なお、第1接触点1001a及び第2接触点1004aは、それぞれ領域1001及び領域1004の最左端に位置する点とされているが、例えば領域1001及び領域1004の中心等に位置する点であっても構わない。
An
入力補助UIの表示位置の決定処理において、UI表示処理部301Cは、例えば領域1002(及び領域1003)の最右端に位置する点のX座標(以下、X1座標と表記)を取得する。なお、この領域1002及び領域1003(及びX1座標)は、上記したブロックB1において入力されたストロークデータ(時系列座標)及びタッチパネル12Bによって検出される第1接触点1001aの位置(座標)等から算出されるものとする。
In the process of determining the display position of the input auxiliary UI, the UI
また、UI表示処理部301Cは、第2接触点1004aのX座標(以下、X2座標と表記)を取得する。
Also, the UI
次に、UI表示処理部301Cは、領域1003の最下端に位置する点のY座標(以下、Y1座標と表記)及び当該領域1003の最上端に位置する点のY座標(以下、Y2座標と表記)を取得する。
Next, the UI
これにより、UI表示処理部301Cは、図14に示すようにX1座標、X2座標、Y1座標及びY2座標に基づいて領域1005を算出する。
Thereby, the UI
この場合、UI表示処理部301Cは、算出された領域1005(内の位置)を、入力補助UIを表示する位置として決定する。なお、入力補助UIの表示位置は、領域1005内であればよいが、当該入力補助UIと当該入力補助UIを介して利用される入力補助機能との関係性または関連性をユーザが判断することができる程度の範囲内にあるものとする。具体的には、入力補助UIを介して利用される入力補助機能が上記した手書き文字列の色彩を変更する機能である場合には、入力補助UIは、例えば領域1003内に記載された手書き文字列の近傍に表示されるものとする。
In this case, the UI
ここで、領域1001〜領域1003によって示されるように、領域1001の近傍は手書き入力操作を行うことができない。このため、ユーザの手が接触する画面上の領域1001と手書き入力可能領域1002及び1003との間には一定の間隔が存在する。これによれば、領域1004の近傍についても手書き入力操作を行うことができないと推定される。したがって、入力補助UIをユーザが容易に手書き入力操作を行うことが可能な位置(領域)に表示するためには、上記した第2接触点のX座標を例えば第1接触点のX座標とX1座標との差分だけX軸の負方向にずらした位置のX座標を、X2座標として用いて入力補助UIを表示する位置を決定することが好ましい。
Here, as indicated by
また、ここでは領域1003の最下端に位置する点のY座標(Y1座標)及び当該領域1003の最上端に位置する点のY座標(Y2座標)を用いるものとして説明したが、当該Y1座標及びY2座標に代えて、例えば領域1002の最下端に位置する点のY座標及び当該領域1002の最上端に位置する点のY座標を用いても構わない。
Further, here, the Y coordinate (Y1 coordinate) of the point located at the lowermost end of the
なお、ここで説明した入力補助UIの表示位置の決定処理は一例であり、他の処理によって入力補助UIの表示位置を決定しても構わない。具体的には、例えば領域1001及び領域1003との位置関係から、領域1004にユーザの手が接触している場合において容易に手書き入力操作を行うことが可能な領域を算出し、当該算出された領域(内の位置)を入力補助UIの表示位置として決定しても構わない。
Note that the process of determining the display position of the input auxiliary UI described here is merely an example, and the display position of the input auxiliary UI may be determined by other processes. Specifically, for example, based on the positional relationship between the
再び図13に戻ると、UI表示処理部301Cは、上記したように決定された入力補助UIの表示位置に当該入力補助UIを表示する(ブロックB5)。ユーザは、このように表示された入力補助UIに対して例えばペン100を使用したタッチ操作等を行うことにより、上述した入力補助機能を利用することができる。このように表示された入力補助UIは、ユーザによる円滑な手書き入力操作のために、不要と判定される場合には速やかに非表示とすることが好ましい。具体的には、例えば入力補助UIに対する操作が一定時間行われない場合には当該入力補助UIは不要であると判定し、非表示とすることができる。
Returning to FIG. 13 again, the UI
なお、上述したブロックB3においてタッチスクリーンディスプレイ12の画面上にユーザの手が接触していないと判定された場合(ブロックB3のNO)、例えば手書き入力操作が終了されたものとして、入力補助UI表示処理は終了される。
When it is determined that the user's hand is not in contact with the screen of the
次に、上述した入力補助UIの表示について具体的に説明する。ここでは、入力補助UIの第1の表示例及び第2の表示例について説明する。 Next, the display of the input auxiliary UI described above will be specifically described. Here, a first display example and a second display example of the input auxiliary UI will be described.
まず、図15を参照して、入力補助UIの第1の表示例について説明する。図15は、ユーザによる手書き入力操作に応じた1以上のストローク(ここでは、手書き文字列「ABC」)に対応するストロークデータが入力された後に、上述した運筆動作が行われる場合について示している。 First, a first display example of the input auxiliary UI will be described with reference to FIG. FIG. 15 shows a case where the above-described stroke operation is performed after stroke data corresponding to one or more strokes (here, handwritten character string “ABC”) corresponding to a handwriting input operation by the user is input. .
図15に示すように、運筆動作が行われた場合、当該運筆動作が行われる前に手書き入力操作が行われた領域1003から運筆方向に所定距離離れた位置に、入力補助UI1100が表示される。これによれば、ユーザは、領域1003内に手書き文字列「ABC」を書き終えて運筆動作を行った際に、容易に入力補助UI1100に対する操作(タッチ操作等)を行うことができるとともに、次の手書き入力操作(手書き文字列の記載等)を行うことが可能となる。
As shown in FIG. 15, when a stroke operation is performed, the
なお、この図15に示す入力補助UI1100は、例えば手書き文字列の色彩を変更するという入力補助機能を利用するためのユーザインタフェース(つまり、手書き文字列の色彩を指定するための操作に用いられるユーザインタフェース)である。
The
図15に示す例では、この入力補助UI1100には、例えば「R(赤色)」ボタン1101、「G(緑色)」ボタン1102及び「B(青色)」ボタン1103が設けられている。ユーザは、ペン100を用いて例えば「R」ボタン1101に対するタッチ操作を行うことにより、手書き文字列「ABC」の色彩を当該ボタン1101に対応する色彩(つまり、赤色)に変更することができる。ここでは、「R」ボタン1101について説明したが、他のボタン1102及び1103に対するタッチ操作が行われた場合についても同様である。
In the example illustrated in FIG. 15, the
なお、入力補助UI1100には、赤色、緑色及び青色に対応するボタン1101〜1103以外のボタンが設けられていてもよい。この入力補助UI1100に設けられる各ボタンの種類(当該ボタンに対応する色彩)及び数等は、ユーザによって適宜変更(設定)することができるものとする。
Note that the
また、本実施形態における手書きノート(手書き文書)の作成時には、タッチスクリーンディスプレイ12の画面上で手書き文字列が記載される度に、当該画面に対する所定の操作(以下、確定操作と表記)により当該手書き文字列(の入力)を確定するという動作が行われる。この場合、図15に示す入力補助UI1100を介して利用される機能(ここでは、手書き文字列の色彩を指定する機能)は、上記した確定操作により確定されていない、つまり、未確定(編集中)の手書き文字列(つまり、1以上のストローク)に対して適用されるものとする。すなわち、本実施形態においては、未確定のストロークが入力補助UI1100を用いた操作の対象とされる。
In addition, when a handwritten note (handwritten document) is created in the present embodiment, each time a handwritten character string is written on the screen of the
次に、図16を参照して、入力補助UIの第2の表示例について説明する。ここでは、本実施形態に係るタブレットコンピュータ10(上で動作する手書きノートアプリケーションプログラム103b)が入力補助機能として上述した手書き入力の候補(以下、推薦手書き文字列と表記)を表示する機能(以下、入力サジェスト機能と表記)を有している場合を想定している。この入力サジェスト機能によれば、手書き入力操作に応じた1以上のストロークに基づいて特定されるストローク集合(例えば、過去に記載された手書き文字列のうち当該1以上のストロークに類似するストロークから構成される手書き文字列)が推薦手書き文字列として表示される。
Next, a second display example of the input auxiliary UI will be described with reference to FIG. Here, the
図16は、このような推薦手書き文字列が表示された後に、上述した運筆動作が行われる場合について示している。 FIG. 16 shows a case where the above-described handwriting operation is performed after such a recommended handwritten character string is displayed.
ここで、図16に示す例では、例えば手書き入力操作によって手書き文字「a」が手書きで記載された場合、当該手書き文字「a」(つまり、1以上のストローク)に基づいて特定される推薦手書き文字列「app」、「apple」及び「air」が表示されている。 Here, in the example illustrated in FIG. 16, for example, when the handwritten character “a” is written by handwriting by a handwriting input operation, the recommended handwriting specified based on the handwritten character “a” (that is, one or more strokes). The character strings “app”, “apple”, and “air” are displayed.
なお、図16では上述した領域1001〜1003については省略されているが、推薦手書き文字列「app」は、例えば領域1003(手書き入力操作が行われる領域)の上側に位置する領域1201(第2領域)に表示される。また、推薦手書き文字列「apple」は、例えば領域1003(に重なる領域1202)に表示される。更に、推薦手書き文字列「air」は、例えば領域1003の下側に位置する領域1203(第3領域)に表示される。なお、表示される推薦手書き文字列のうち、例えば最も優先度の高い推薦手書き文字列が領域1202に表示されるものとする。この優先度は、例えば手書き入力操作によって手書きで記載された手書き文字列と一致する度合いや推薦手書き文字列として過去に表示された際にユーザによって選択された回数等に基づいて算出することが可能であるが、他の手法により算出されても構わない。また、図16に示す例では領域1201〜1203の各々に推薦手書き文字列が表示されるものとして説明したが、推薦手書き文字列は、当該領域1201〜1203の少なくとも1つの領域に表示されればよい。
In FIG. 16, the above-described
このように推薦手書き文字列が表示された場合、ユーザは、当該推薦手書き文字列のうちの1つを(手書き入力領域500に)表示すべき文字列として選択することができる。すなわち、推薦手書き文字列のうちの1つがユーザによって選択される場合、筆跡描画部301Bは、当該推薦手書き文字列を手書き入力領域500に表示(描画)する。
When the recommended handwritten character string is displayed in this way, the user can select one of the recommended handwritten character strings as a character string to be displayed (in the handwriting input area 500). That is, when one of the recommended handwritten character strings is selected by the user, the
図16に示す例では、運筆動作が行われた場合、カーソル1204を合わせることによって推薦手書き文字列のうちの1つを選択(指定)することができる入力補助UI1205が表示される。なお、この入力補助UI1205は、例えば領域1202に表示されている推薦手書き文字列「apple」が選択された場合に、次の手書き入力操作が行われると推定される位置の近傍(つまり、当該推薦手書き文字列の後の位置)に表示される。
In the example illustrated in FIG. 16, when a handwriting action is performed, an
この入力補助UI1205には、例えば上記したカーソル1204を上に移動させるための「上」ボタン1205a、当該カーソル1204を下に移動させるための「下」ボタン1205b及びカーソル1204が合わせられている推薦手書き文字列を指定するための「OK」ボタン1205cが設けられている。
In this
これによれば、運筆動作後に入力補助UI1205に対する操作(つまり、推薦手書き文字列を選択する操作)を容易に行うことができるとともに、容易に次の手書き入力操作を行うことが可能となる。
According to this, it is possible to easily perform an operation (that is, an operation of selecting a recommended handwritten character string) on the
なお、図15及び図16において説明した入力補助UI1100及び1205は一例であり、本実施形態における入力補助UIは、例えば手書き文字列の太さを変更する、当該手書き文字列を拡大または縮小する、当該手書き文字列を削除する、当該手書き文字列を検索キーとして指定する、または当該手書き文字列に対して文字認識処理を実行する等の機能、あるいはこれらを組み合わせた機能等を利用するためのものであってもよい。すなわち、本実施形態における入力補助UIは、ユーザによる手書き入力操作を補助する機能を利用するためのものであればよい。
The
上記したように本実施形態においては、タッチスクリーンディスプレイ12の画面上の接触点(第1接触点)に手が接触した状態で手書きで入力される1以上のストローク(第1ストローク)に対応するストロークデータ(第1ストロークデータ)を入力し、手が当該接触点から離れた後、当該1以上のストロークが表示される領域(第1領域)から運筆方向に所定距離(第1距離)離れた位置に、入力補助UI(入力するストロークを指定するための操作に用いられるユーザインタフェース)を表示する。具体的には、画面上の接触点(第1接触点)に手が接触した状態で1以上のストローク(第1ストローク)が入力された後に運筆動作を行い、当該画面上の異なる接触点(第2接触点)に手が接触した状態で1以上のストローク(第2ストローク)が入力される場合、入力補助UIは、当該運筆動作前に1以上のストロークが表示される領域と当該運筆動作後の接触点との間の位置に表示される。
As described above, in the present embodiment, one or more strokes (first strokes) input by handwriting in a state where a hand is in contact with a contact point (first contact point) on the screen of the
本実施形態においては、このような構成により、手書き入力操作を阻害または中断しない位置(つまり、運筆動作後の次の手書き入力操作を行う位置の近傍)に入力補助UIが表示されるため、ユーザは、当該入力補助UIに対する操作を容易に行うことが可能となり、手書き文書(手書きノート)を効率的に作成することが可能となる。 In the present embodiment, the input auxiliary UI is displayed at a position where the handwriting input operation is not hindered or interrupted (that is, in the vicinity of the position where the next handwriting input operation is performed after the handwriting operation) according to such a configuration. Can easily operate the input auxiliary UI, and can efficiently create a handwritten document (handwritten note).
また、本実施形態においては、1以上のストロークが手書きで記載される領域1202(第1領域)、当該領域の上側に位置する領域1201(第2領域)及び当該領域の下側に位置する領域1203(第3領域)の少なくとも1つの領域に推薦手書き文字列(手書き入力の候補)が表示され、当該推薦手書き文字列を指定するための操作に用いられる入力補助UI1205が表示される。本実施形態においては、このような構成により、推薦手書き文字列を表示(提示)する機能(入力サジェスト機能)を有している場合に、当該推薦手書き文字列を指定する操作(図16に示す入力補助UI1205に対する操作)を容易に行うことが可能な入力補助UIを表示することが可能となる。
In the present embodiment, an area 1202 (first area) in which one or more strokes are written by hand, an area 1201 (second area) located above the area, and an area located below the area A recommended handwritten character string (candidate for handwriting input) is displayed in at least one area of 1203 (third area), and an
更に、本実施形態においては、タッチスクリーンディスプレイ12の画面上にユーザの手が接触した状態が継続している間は入力補助UIを非表示とすることにより、例えば当該画面上において手書き入力操作が継続して行われている場合に、ユーザが意図しない当該入力補助UIに対する操作が行われることを防止することが可能となる。
Furthermore, in this embodiment, while the state in which the user's hand is in contact with the screen of the
また、本実施形態においては、未確定のストロークを入力補助UIを用いた操作の対象とする(つまり、入力補助UIを介して利用される入力補助機能は未確定のストロークに対して適用される)ことにより、ユーザが意図しない範囲のストローク(手書き文字列)に対してまでも当該入力補助機能が適用される(つまり、当該入力補助機能による効果が生じる)ことを防止することができる。 Further, in the present embodiment, an undetermined stroke is set as an operation target using the input auxiliary UI (that is, the input auxiliary function used via the input auxiliary UI is applied to the undetermined stroke. Thus, it is possible to prevent the input assist function from being applied even to a stroke (handwritten character string) in a range not intended by the user (that is, the effect of the input assist function is generated).
なお、本実施形態においては図13及び図14において説明した第1の決定処理が実行されることによって決定された位置に入力補助UIが表示される(つまり、運筆動作後に入力補助UIが表示される)ものとして説明したが、当該ユーザの手が再度画面上に接触する前(つまり、次の手書き入力位置に手を移動している最中)に、入力補助UIが表示されるようにしてもよい。この場合には、次にユーザが手を接触させる画面上の位置を予測して入力補助UIの表示位置を決定する。 In the present embodiment, the input auxiliary UI is displayed at the position determined by executing the first determination process described in FIG. 13 and FIG. 14 (that is, the input auxiliary UI is displayed after the handwriting operation). The input auxiliary UI is displayed before the user's hand touches the screen again (that is, while the hand is moving to the next handwriting input position). Also good. In this case, the display position of the input auxiliary UI is determined by predicting the position on the screen where the user next touches the hand.
以下、図17を参照して、この場合における入力補助UIの表示位置の決定処理(以下、第2の決定処理と表記)について説明する。ここでは、上述した図12及び図14と同様の部分には同一参照符号を付して、その詳しい説明を省略する。 Hereinafter, with reference to FIG. 17, a process for determining the display position of the input auxiliary UI in this case (hereinafter referred to as a second determination process) will be described. Here, the same parts as those in FIGS. 12 and 14 described above are denoted by the same reference numerals, and detailed description thereof is omitted.
この第2決定処理の場合、UI表示処理部301Cは、例えば領域1002(及び領域1003)の最左端に位置する点のX座標(以下、X0座標と表記)を取得する。
In the case of the second determination process, the UI
また、UI表示処理部301Cは、上述した図14において説明したX1座標を取得する。
In addition, the UI
なお、領域1002及び領域1003(X0座標及びX1座標)は、ブロックB1において入力されたストロークデータ(時系列座標)及びタッチパネル12Bによって検出される第1接触点1001aの位置(座標)等から算出されるものとする。
Note that the
ここで、UI表示処理部301Cは、図17に示すように、取得されたX1座標とX0座標との差分dを算出し、当該算出された差分dをX1座標に加算した値(以下、X2´座標と表記)を算出する。
Here, as shown in FIG. 17, the UI
次に、UI表示処理部301Cは、上述した図14において説明したY1座標及びY2座標を取得する。
Next, the UI
これにより、UI表示処理部301Cは、図17に示すようにX1座標、X2´座標、Y1座標及びY2座標に基づいて領域1006を算出する。
Accordingly, the UI
この場合、UI表示処理部301Cは、算出された領域1006(内の位置)を、入力補助UIを表示する位置として決定する。
In this case, the UI
すなわち、第2の決定処理においては、上記したように領域1002及び領域1003に基づいて次の手書き入力操作が行われると推測される領域1006を予測し、当該領域1006内の位置を入力補助UIの表示位置として決定する。
That is, in the second determination process, as described above, the
この第2の決定処理によれば、ユーザの運筆動作によりユーザの手が画面上に置かれる(接触する)前に入力補助UIを表示することが可能となるため、運筆のリズムをソフトウェア的に意図的に作り出すことが可能となる。 According to the second determination process, it is possible to display the input auxiliary UI before the user's hand is placed on (contacted with) the screen by the user's handwriting operation. It can be created intentionally.
しかしながら、手書き文字列を横書きで記載する場合を想定すると、第2の決定処理によって決定された位置に入力補助UIを表示する場合、運筆動作の最中(つまり、ユーザが手を移動している最中)の当該ユーザの手の下に入力補助UIが表示されることになる。つまり、ユーザの運筆動作が完了するまで(つまり、ユーザが手を画面上に置くまで)の間に、ユーザが意図しないタッチ操作(つまり、誤操作)が行われる可能性がある。 However, assuming that the handwritten character string is written in horizontal writing, when the input auxiliary UI is displayed at the position determined by the second determination process, the hand movement is in progress (that is, the user is moving the hand). In the middle), the input auxiliary UI is displayed under the user's hand. That is, there is a possibility that a touch operation unintended by the user (that is, an erroneous operation) is performed until the user's stroke operation is completed (that is, until the user places his / her hand on the screen).
これに対して、上述した第1の決定処理によれば、ユーザの運筆動作後(つまり、ユーザの手が画面上に置かれた後)に入力補助UIが表示されるため、第2の決定処理が実行された場合と比較して誤操作が行われる可能性は低い。 On the other hand, according to the first determination process described above, the input assist UI is displayed after the user's stroke operation (that is, after the user's hand is placed on the screen). There is a low possibility that an erroneous operation is performed as compared with the case where the process is executed.
上記した第1または第2の決定処理のいずれの処理が実行されるか(つまり、ユーザの手が画面上に置かれた後に入力補助UIが表示されるか、当該ユーザの手が画面上に置かれる前に入力補助UIが表示されるか)はユースケースによって決定される。 Whether the first or second determination process described above is executed (that is, whether the input auxiliary UI is displayed after the user's hand is placed on the screen, or the user's hand is on the screen) Whether the auxiliary input UI is displayed before being placed) is determined by the use case.
なお、本実施形態においてはユーザがペン100を使用して手書き文字列を横書きで記載する場合について主に説明したが、本実施形態は、当該手書き文字列を縦書きで記載する場合にも適用可能である。ここで、手書き文字列を縦書きで記載する場合の運筆方向は、当該手書き文字列を横書きで記載する場合と異なり、ユーザから見て上から下方向である。また、運筆方向やユーザの手書き習慣から当該運筆方向に最適化されたペン100の持ち方及び動かし方によって、手書き入力可能領域は、横書きの場合における領域1002と異なる場合がある。更に、手書き文字列を縦書きで記載する場合における容易に手書き入力操作を行うことが可能な領域の形状も、上述した図12に示す領域1003とは異なり、縦長の楕円形状となる。このように、手書き文字列を横書きで記載する場合と縦書きで記載する場合とでは上記したように運筆方向等に差異があるが、手書き文字列を縦書きで記載する場合であっても、図13に示すような処理が実行されることによってユーザによる手書き入力操作が行われる領域から運筆方向に所定距離離れた位置に入力補助UIを表示することが可能である。これにより、手書き文字列を縦書きで記載する場合でも上述した手書き文字列を横書きで記載する場合と同様の効果を実現することができる。
In the present embodiment, the case where the user writes the handwritten character string in horizontal writing using the
なお、本実施形態の処理はコンピュータプログラムによって実現することができるため、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。 Since the processing of the present embodiment can be realized by a computer program, the computer program is installed and executed on a computer through a computer-readable storage medium that stores the computer program, as in the present embodiment. The effect of can be easily realized.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.
10…タブレットコンピュータ(電子機器)、11…本体、12…タッチスクリーンディスプレイ、12A…LCD、12B…タッチパネル、12C…デジタイザ、100…ペン、101…CPU、102…不揮発性メモリ、103…主メモリ、103a…オペレーティングシステム、103b…手書きノートアプリケーションプログラム、104…BIOS−ROM、105…システムコントローラ、106…グラフィクスコントローラ、107…無線通信デバイス、108…EC、301…表示処理部、301A…手書きデータ入力部、301B…筆跡描画部、301C…UI表示処理部、302…時系列情報生成部、303…編集処理部、304…ページ保存処理部、305…ページ取得処理部、401…作業メモリ、402…記憶媒体。
DESCRIPTION OF
Claims (15)
手が前記第1接触点から離れた後、前記1以上の第1ストロークが表示される第1領域から運筆方向に第1距離離れた位置に、入力するストロークを指定するための操作に用いられるユーザインタフェースを表示することと
を具備する、方法。Inputting first stroke data corresponding to one or more first strokes input by handwriting in a state where the hand is in contact with the first contact point on the screen;
After the hand leaves the first contact point, it is used for an operation for designating an input stroke at a position away from the first area where the one or more first strokes are displayed by a first distance in the stroke direction. Displaying a user interface.
前記手書き入力の候補は、前記第1領域、当該第1領域の上側に位置する第2領域及び当該第1領域の下側に位置する第3領域の少なくとも1つの領域に表示され、
前記ユーザインタフェースは、前記手書き入力の候補を指定するための操作に用いられる
請求項1記載の方法。Further comprising displaying a stroke set identified based on the one or more strokes as a candidate for handwriting input,
The handwriting input candidates are displayed in at least one of the first region, the second region located above the first region, and the third region located below the first region,
The method according to claim 1, wherein the user interface is used for an operation for designating a candidate for the handwriting input.
手が前記第1接触点から離れた後、前記1以上の第1ストロークが表示される第1領域から運筆方向に第1距離離れた位置に、入力するストロークを指定するための操作に用いられるユーザインタフェースを表示する表示処理手段と
を具備する、電子機器。Input means for inputting first stroke data corresponding to one or more first strokes input by handwriting in a state where the hand is in contact with the first contact point on the screen;
After the hand leaves the first contact point, it is used for an operation for designating an input stroke at a position away from the first area where the one or more first strokes are displayed by a first distance in the stroke direction. An electronic device comprising display processing means for displaying a user interface.
前記手書き入力候補は、前記第1領域、当該第1領域の上側に位置する第2領域及び当該第1領域の下側に位置する第3領域の少なくとも1つの領域に表示され、
前記ユーザインタフェースは、前記手書き入力の候補を指定するための操作に用いられる
請求項6記載の電子機器。The display processing means displays a stroke set specified based on the one or more strokes as a candidate for handwriting input,
The handwriting input candidate is displayed in at least one area of the first area, the second area located above the first area, and the third area located below the first area,
The electronic device according to claim 6, wherein the user interface is used for an operation for designating a candidate for the handwriting input.
前記コンピュータに、
画面上の第1接触点に手が接触した状態で手書きで入力される1以上の第1ストロークに対応する第1ストロークデータを入力することと、
手が前記第1接触点から離れた後、前記1以上の第1ストロークが表示される第1領域から運筆方向に第1距離離れた位置に、入力するストロークを指定するための操作に用いられるユーザインタフェースを表示することと
を実行させるためのプログラム。A program executed by a computer,
In the computer,
Inputting first stroke data corresponding to one or more first strokes input by handwriting in a state where the hand is in contact with the first contact point on the screen;
After the hand leaves the first contact point, it is used for an operation for designating an input stroke at a position away from the first area where the one or more first strokes are displayed by a first distance in the stroke direction. A program for displaying and executing the user interface.
前記手書き入力の候補は、前記第1領域、当該第1領域の上側に位置する第2領域、及び当該第1領域の下側に位置する第3領域の少なくとも1つの領域に表示され、
前記ユーザインタフェースは、前記手書き入力の候補を指定するための操作に用いられる
請求項11記載のプログラム。Causing the computer to further display a stroke set identified based on the one or more strokes as a candidate for handwriting input;
The handwriting input candidates are displayed in at least one of the first region, the second region located above the first region, and the third region located below the first region,
The program according to claim 11, wherein the user interface is used for an operation for designating a candidate for the handwriting input.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/075602 WO2016046953A1 (en) | 2014-09-26 | 2014-09-26 | Electronic device, method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016046953A1 true JPWO2016046953A1 (en) | 2017-07-27 |
JP6251408B2 JP6251408B2 (en) | 2017-12-20 |
Family
ID=55580512
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016549855A Active JP6251408B2 (en) | 2014-09-26 | 2014-09-26 | Electronic device, method and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6251408B2 (en) |
WO (1) | WO2016046953A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08320755A (en) * | 1995-05-25 | 1996-12-03 | Canon Inc | Information processor |
JP2000123114A (en) * | 1998-10-15 | 2000-04-28 | Casio Comput Co Ltd | Handwritten character input device and storage medium |
JP2005251222A (en) * | 2005-04-01 | 2005-09-15 | Sharp Corp | Handwritten input device, handwritten input program, and program recording medium |
JP2014016943A (en) * | 2012-07-11 | 2014-01-30 | Sharp Corp | Information processor, display method, and program |
-
2014
- 2014-09-26 JP JP2016549855A patent/JP6251408B2/en active Active
- 2014-09-26 WO PCT/JP2014/075602 patent/WO2016046953A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08320755A (en) * | 1995-05-25 | 1996-12-03 | Canon Inc | Information processor |
JP2000123114A (en) * | 1998-10-15 | 2000-04-28 | Casio Comput Co Ltd | Handwritten character input device and storage medium |
JP2005251222A (en) * | 2005-04-01 | 2005-09-15 | Sharp Corp | Handwritten input device, handwritten input program, and program recording medium |
JP2014016943A (en) * | 2012-07-11 | 2014-01-30 | Sharp Corp | Information processor, display method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2016046953A1 (en) | 2016-03-31 |
JP6251408B2 (en) | 2017-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5813780B2 (en) | Electronic device, method and program | |
JP6180888B2 (en) | Electronic device, method and program | |
JP6092418B2 (en) | Electronic device, method and program | |
JP5728592B1 (en) | Electronic device and handwriting input method | |
JP5989903B2 (en) | Electronic device, method and program | |
JP6092462B2 (en) | Electronic device, method and program | |
JP5925957B2 (en) | Electronic device and handwritten data processing method | |
JP6426417B2 (en) | Electronic device, method and program | |
JP5395927B2 (en) | Electronic device and handwritten document search method | |
JP5634617B1 (en) | Electronic device and processing method | |
JP2016085512A (en) | Electronic equipment, method, and program | |
JP6100013B2 (en) | Electronic device and handwritten document processing method | |
US20150098653A1 (en) | Method, electronic device and storage medium | |
JP6430198B2 (en) | Electronic device, method and program | |
US20150149894A1 (en) | Electronic device, method and storage medium | |
JP5749245B2 (en) | Electronic device, display method, and display program | |
JP6251408B2 (en) | Electronic device, method and program | |
JP6202997B2 (en) | Electronic device, method and program | |
JP6062487B2 (en) | Electronic device, method and program | |
JP6315996B2 (en) | Electronic device, method and program | |
JP2015109116A (en) | Electronic apparatus, display method and display program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171024 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171124 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6251408 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313117 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |