JPWO2016046953A1 - Electronic device, method and program - Google Patents

Electronic device, method and program Download PDF

Info

Publication number
JPWO2016046953A1
JPWO2016046953A1 JP2016549855A JP2016549855A JPWO2016046953A1 JP WO2016046953 A1 JPWO2016046953 A1 JP WO2016046953A1 JP 2016549855 A JP2016549855 A JP 2016549855A JP 2016549855 A JP2016549855 A JP 2016549855A JP WO2016046953 A1 JPWO2016046953 A1 JP WO2016046953A1
Authority
JP
Japan
Prior art keywords
input
screen
handwritten
stroke
handwriting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016549855A
Other languages
Japanese (ja)
Other versions
JP6251408B2 (en
Inventor
健彦 出宮
健彦 出宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JPWO2016046953A1 publication Critical patent/JPWO2016046953A1/en
Application granted granted Critical
Publication of JP6251408B2 publication Critical patent/JP6251408B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Character Discrimination (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

実施形態によれば、方法は、画面上の第1接触点に手が接触した状態で手書きで入力される1以上の第1ストロークに対応する第1ストロークデータを入力することと、手が第1接触点から離れた後、1以上の第1ストロークが表示される第1領域から運筆方向に第1距離離れた位置に、入力するストロークを指定するための操作に用いられるユーザインタフェースを表示することとを具備する。According to the embodiment, the method includes inputting first stroke data corresponding to one or more first strokes input by handwriting in a state where the hand contacts the first contact point on the screen; After leaving from one contact point, a user interface used for an operation for designating an input stroke is displayed at a position separated by a first distance in the stroke direction from a first area where one or more first strokes are displayed. It comprises.

Description

本発明の実施形態は、文字列を手書き入力する技術に関する。   Embodiments described herein relate generally to a technique for inputting a character string by handwriting.

近年、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン、PDAといった文書を手書きで入力可能な種々の電子機器が開発されている。   In recent years, various electronic devices such as tablet computers, notebook personal computers, smartphones, and PDAs have been developed that can input documents by handwriting.

特開2005−025566号公報JP 2005-025566 A

本発明の一形態の目的は、手書き文書を効率的に作成することが可能な電子機器、方法及びプログラムを提供することである。   An object of one embodiment of the present invention is to provide an electronic device, a method, and a program capable of efficiently creating a handwritten document.

実施形態によれば、方法は、画面上の第1接点に手が接触した状態で手書きで入力される1以上の第1ストロークに対応する第1ストロークデータを入力することと、手が前記第1接触点から離れた後、前記1以上の第1ストロークが表示される第1領域から運筆方向に第1距離離れた位置に、入力するストロークを指定するための操作に用いられるユーザインタフェースを表示することとを具備する。   According to the embodiment, the method includes inputting first stroke data corresponding to one or more first strokes input by handwriting in a state where the hand is in contact with the first contact point on the screen; After leaving one contact point, a user interface used for an operation for designating an input stroke is displayed at a position away from the first area where the one or more first strokes are displayed in the stroke direction by a first distance. Comprising.

図1は、実施形態に係る電子機器の外観の一例を示す斜視図である。FIG. 1 is a perspective view illustrating an example of an external appearance of an electronic apparatus according to an embodiment. 図2は、電子機器と他の装置との連係動作の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a cooperative operation between the electronic device and another device. 図3は、タッチスクリーンディスプレイに手書きされる手書き文書の一例を示す図である。FIG. 3 is a diagram illustrating an example of a handwritten document handwritten on the touch screen display. 図4は、ストロークデータの集合である時系列情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of time-series information that is a set of stroke data. 図5は、電子機器のシステム構成の一例を示す図である。FIG. 5 is a diagram illustrating an example of a system configuration of an electronic device. 図6は、電子機器によって表示されるホーム画面の一例を示す図である。FIG. 6 is a diagram illustrating an example of a home screen displayed by the electronic device. 図7は、電子機器によって表示されるノートプレビュー画面の一例を示す図である。FIG. 7 is a diagram illustrating an example of a note preview screen displayed by the electronic device. 図8は、電子機器によって表示される設定画面の一例を示す図である。FIG. 8 is a diagram illustrating an example of a setting screen displayed by the electronic device. 図9は、電子機器によって表示されるページ編集画面の一例を示す図である。FIG. 9 is a diagram illustrating an example of a page editing screen displayed by the electronic device. 図10は、電子機器によって表示される検索ダイアログの一例を示す図である。FIG. 10 is a diagram illustrating an example of a search dialog displayed by the electronic device. 図11は、電子機器によって実行される手書きノートアプリケーションプログラムの機能構成の一例を示すブロック図である。FIG. 11 is a block diagram illustrating an example of a functional configuration of a handwritten note application program executed by the electronic device. 図12は、ペンを使用してタッチスクリーンディスプレイの画面上で手書き入力操作を行う場合におけるユーザの操作領域の一例について説明するための図。FIG. 12 is a diagram for explaining an example of a user operation area when a handwriting input operation is performed on the screen of the touch screen display using a pen. 図13は、入力補助UI表示処理の処理手順の一例を示すフローチャートである。FIG. 13 is a flowchart illustrating an example of the processing procedure of the input auxiliary UI display processing. 図14は、第1の決定処理の一例について説明するための図である。FIG. 14 is a diagram for describing an example of the first determination process. 図15は、入力補助UIの第1の表示例について説明するための図である。FIG. 15 is a diagram for describing a first display example of the input auxiliary UI. 図16は、入力補助UIの第2の表示例について説明するための図である。FIG. 16 is a diagram for describing a second display example of the input auxiliary UI. 図17は、第2の決定処理の一例について説明するための図である。FIG. 17 is a diagram for describing an example of the second determination process.

以下、実施の形態について図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、一実施形態に係る電子機器の外観の一例を示す斜視図である。この電子機器は、例えば、ペンまたは指によって手書き入力可能なペン・ベースの携帯型電子機器である。この電子機器は、タブレットコンピュータ、ノートブック型パーソナルコンピュータ、スマートフォン及びPDA等として実現され得る。図1においては、この電子機器がタブレットコンピュータとして実現されている例が示されている。以下の説明では、本実施形態に係る電子機器がタブレットコンピュータとして実現されているものとして説明する。タブレットコンピュータは、タブレットまたはスレートコンピュータとも称される携帯型電子機器である。   FIG. 1 is a perspective view illustrating an example of an external appearance of an electronic apparatus according to an embodiment. This electronic device is, for example, a pen-based portable electronic device that can be handwritten with a pen or a finger. This electronic device can be realized as a tablet computer, a notebook personal computer, a smartphone, a PDA, or the like. FIG. 1 shows an example in which this electronic device is realized as a tablet computer. In the following description, it is assumed that the electronic device according to the present embodiment is realized as a tablet computer. A tablet computer is a portable electronic device also called a tablet or a slate computer.

図1に示すタブレットコンピュータ10は、本体11とタッチスクリーンディスプレイ12とを備える。本体11は薄い箱型の筐体を有しており、タッチスクリーンディスプレイ12は当該本体の上面に重ね合わせるように取り付けられている。   A tablet computer 10 shown in FIG. 1 includes a main body 11 and a touch screen display 12. The main body 11 has a thin box-shaped housing, and the touch screen display 12 is attached so as to overlap the upper surface of the main body.

タッチスクリーンディスプレイ12には、フラットパネルディスプレイと、フラットパネルディスプレイの画面上のペンまたは指の接触位置を検出するように構成されたセンサとが組み込まれている。フラットパネルディスプレイは、例えば、液晶表示装置(LCD)であってもよい。センサとしては、例えば、静電容量方式のタッチパネル、電磁誘導方式のデジタイザ等を使用することができる。以下ではタッチパネル及びデジタイザの2種類のセンサの双方がタッチスクリーンディスプレイ12に組み込まれている場合を説明する。このため、タッチスクリーンディスプレイ12は、指を使用した画面に対するタッチ操作のみならず、ペン100を使用した画面に対するタッチ操作も検出することができる。   The touch screen display 12 incorporates a flat panel display and a sensor configured to detect a contact position of a pen or a finger on the screen of the flat panel display. The flat panel display may be, for example, a liquid crystal display (LCD). As the sensor, for example, a capacitive touch panel, an electromagnetic induction digitizer, or the like can be used. Hereinafter, a case where both of the two types of sensors, the touch panel and the digitizer, are incorporated in the touch screen display 12 will be described. For this reason, the touch screen display 12 can detect not only a touch operation on the screen using a finger but also a touch operation on the screen using the pen 100.

ペン100は、例えばデジタイザペン(電磁誘導ペン)であってもよい。ユーザは、ペン100を使用してタッチスクリーンディスプレイ12上で手書き入力操作を行うことができる(ペン入力モード)。ペン入力モードにおいては、画面上のペン100の動きの軌跡、つまり、手書き入力操作によって手書きされるストロークが求められ、これによって手書きにより入力された複数のストロークが画面上に表示される。ペン100が画面に接触されている間のペン100の動きの軌跡が1つのストロークに相当する。複数のストロークが文字、記号等を構成する。手書きされた文字、手書きされた図形、手書きされた表等に対応する多数のストロークの集合が手書き文書を構成する。   The pen 100 may be, for example, a digitizer pen (electromagnetic induction pen). The user can perform a handwriting input operation on the touch screen display 12 using the pen 100 (pen input mode). In the pen input mode, a trajectory of the movement of the pen 100 on the screen, that is, a stroke handwritten by a handwriting input operation is obtained, and thereby a plurality of strokes input by handwriting are displayed on the screen. The locus of movement of the pen 100 while the pen 100 is in contact with the screen corresponds to one stroke. A plurality of strokes constitute characters, symbols, and the like. A set of a large number of strokes corresponding to handwritten characters, handwritten graphics, handwritten tables and the like constitutes a handwritten document.

本実施形態では、この手書き文書は、イメージデータではなく、各ストロークの軌跡の座標列とストローク間の順序関係とを示す時系列情報(手書き文書データ)として記憶媒体に保存される。ただし、この手書き文書は、イメージデータに基づいて生成されてもよい。時系列情報の詳細については後述するが、当該時系列情報は、複数のストロークが手書きされた順を示し、かつ、複数のストロークにそれぞれ対応する複数のストロークデータを含む。換言すれば、時系列情報は、複数のストロークにそれぞれ対応する時系列のストロークデータの集合を意味する。各ストロークデータは、ある1つのストロークに対応し、このストロークの軌跡上の点それぞれに対応する座標データ系列(時系列座標)を含む。これらストロークデータの並びの順序は、ストロークそれぞれが手書きされた順序に相当する。   In the present embodiment, this handwritten document is stored in the storage medium as time series information (handwritten document data) indicating the coordinate sequence of the trajectory of each stroke and the order relationship between the strokes, not image data. However, this handwritten document may be generated based on the image data. Although details of the time-series information will be described later, the time-series information indicates the order in which a plurality of strokes are handwritten, and includes a plurality of stroke data respectively corresponding to the plurality of strokes. In other words, the time series information means a set of time series stroke data respectively corresponding to a plurality of strokes. Each stroke data corresponds to a certain stroke, and includes a coordinate data series (time series coordinates) corresponding to each point on the locus of this stroke. The order of arrangement of the stroke data corresponds to the order in which the strokes are handwritten.

タブレットコンピュータ10は、記憶媒体から既存の任意の時系列情報を読み出し、この時系列情報に対応する手書き文書、つまり、この時系列情報によって示される複数のストロークを画面上に表示することができる。時系列情報によって示される複数のストロークも、手書きによって入力される複数のストロークである。   The tablet computer 10 can read existing arbitrary time-series information from the storage medium and display a handwritten document corresponding to the time-series information, that is, a plurality of strokes indicated by the time-series information on the screen. The plurality of strokes indicated by the time series information are also a plurality of strokes input by handwriting.

更に、本実施形態に係るタブレットコンピュータ10は、ペン100を使用せずに、指で手書き入力操作を行うためのタッチ入力モードも有している。タッチ入力モードが有効な場合、ユーザは、指を使用してタッチスクリーンディスプレイ12上で手書き入力操作を行うことができる。タッチ入力モードにおいては、画面上の指の動きの軌跡、つまり、手書き入力操作によって手書きされるストロークが求められ、これによって手書きにより入力された複数のストロークが画面上に表示される。   Furthermore, the tablet computer 10 according to the present embodiment also has a touch input mode for performing a handwriting input operation with a finger without using the pen 100. When the touch input mode is valid, the user can perform a handwriting input operation on the touch screen display 12 using a finger. In the touch input mode, a trajectory of finger movement on the screen, that is, a stroke handwritten by a handwriting input operation is obtained, and thereby a plurality of strokes input by handwriting are displayed on the screen.

タブレットコンピュータ10は、編集機能を有している。この編集機能は、「消しゴム」ツール、範囲選択ツール、及び他の各種ツール等を用いたユーザによる編集操作に応じて、範囲選択ツールによって選択される表示中の手書き文書内の任意の手書き部分(手書き文字、手書きマーク、手書き図形及び手書き表等)を削除または移動することができる。また、範囲選択ツールによって選択される手書き文書内の任意の手書き部分を、手書き文書を検索するための検索キーとして指定することもできる。また、範囲選択ツールによって選択される手書き文書内の任意の手書き部分に対して、手書き文字認識/手書き図形認識/手書き表認識のような認識処理を実行することもできる。   The tablet computer 10 has an editing function. This editing function is an arbitrary handwritten portion in a displayed handwritten document selected by the range selection tool in response to an editing operation by the user using the “eraser” tool, the range selection tool, and other various tools ( Handwritten characters, handwritten marks, handwritten graphics, handwritten tables, etc.) can be deleted or moved. Also, an arbitrary handwritten part in the handwritten document selected by the range selection tool can be designated as a search key for searching for a handwritten document. In addition, recognition processing such as handwritten character recognition / handwritten figure recognition / handwritten table recognition can be performed on an arbitrary handwritten portion in a handwritten document selected by the range selection tool.

本実施形態では、手書き文書は、1つまたは複数のページとして管理され得る。この場合、時系列情報(手書き文書データ)を1つの画面に収まる面積単位で区切ることによって、1つの画面に収まる時系列情報のまとまりを1つのページとして記録してもよい。あるいは、ページのサイズを可変できるようにしてもよい。この場合、ページのサイズは1つの画面のサイズよりも大きい面積に広げることができるので、画面のサイズよりも大きな面積の手書き文書を1つのページとして扱うことができる。1つのページ全体をディスプレイに同時に表示できない場合は、そのページを縮小して表示するようにしてもよいし、縦横スクロールによってページ内の表示対象部分を移動するようにしてもよい。   In the present embodiment, the handwritten document can be managed as one or a plurality of pages. In this case, a group of time-series information that fits on one screen may be recorded as one page by dividing time-series information (handwritten document data) by area units that fit on one screen. Alternatively, the page size may be variable. In this case, since the page size can be expanded to an area larger than the size of one screen, a handwritten document having an area larger than the screen size can be handled as one page. When one entire page cannot be simultaneously displayed on the display, the page may be reduced and displayed, or the display target portion in the page may be moved by vertical and horizontal scrolling.

図2は、タブレットコンピュータ10と外部装置との連係動作の一例を示している。タブレットコンピュータ10は、無線LAN等の無線通信デバイスを備えており、パーソナルコンピュータ1との無線通信を実行することができる。更に、タブレットコンピュータ10は、無線通信デバイスを使用してインターネット上のサーバ2との通信を実行することもできる。サーバ2は、オンラインストレージサービス、他の各種クラウドコンピューティングサービスを実行するサーバであってもよい。   FIG. 2 shows an example of the linking operation between the tablet computer 10 and an external device. The tablet computer 10 includes a wireless communication device such as a wireless LAN, and can execute wireless communication with the personal computer 1. Furthermore, the tablet computer 10 can execute communication with the server 2 on the Internet using a wireless communication device. The server 2 may be a server that executes an online storage service and other various cloud computing services.

パーソナルコンピュータ1は、ハードディスクドライブ(HDD:Hard Disk Drive)のようなストレージデバイスを備えている。タブレットコンピュータ10は、時系列情報(手書き文書データ)をパーソナルコンピュータ1に送信して、パーソナルコンピュータ1のHDDに記録することができる(アップロード)。タブレットコンピュータ10とパーソナルコンピュータ1との間のセキュアな通信を確保するために、通信開始時には、パーソナルコンピュータ1がタブレットコンピュータ10を認証するようにしてもよい。この場合、タブレットコンピュータ10の画面上にユーザに対してIDまたはパスワードの入力を促すダイアログを表示してもよいし、タブレットコンピュータ10のID等を自動的にタブレットコンピュータ10からパーソナルコンピュータ1に送信してもよい。   The personal computer 1 includes a storage device such as a hard disk drive (HDD). The tablet computer 10 can transmit time series information (handwritten document data) to the personal computer 1 and record it in the HDD of the personal computer 1 (upload). In order to secure secure communication between the tablet computer 10 and the personal computer 1, the personal computer 1 may authenticate the tablet computer 10 at the start of communication. In this case, a dialog prompting the user to input an ID or password may be displayed on the screen of the tablet computer 10, and the ID of the tablet computer 10 is automatically transmitted from the tablet computer 10 to the personal computer 1. May be.

これにより、タブレットコンピュータ10内のストレージの容量が少ない場合でも、タブレットコンピュータ10が多数あるいは大容量の時系列情報を扱うことが可能となる。   As a result, even when the storage capacity of the tablet computer 10 is small, the tablet computer 10 can handle a large number or a large amount of time-series information.

更に、タブレットコンピュータ10は、パーソナルコンピュータ1のHDDに記録されている任意の1以上の時系列情報を読み出し(ダウンロード)、その読み出した時系列情報によって示されるストロークをタブレットコンピュータ10のタッチスクリーンディスプレイ12の画面に表示することができる。この場合、複数の時系列情報それぞれのページを縮小することによって得られるサムネイルの一覧をタッチスクリーンディスプレイ12の画面上に表示してもよいし、これらサムネイルから選ばれた1ページをタッチスクリーンディスプレイ12の画面上に通常サイズで表示してもよい。   Further, the tablet computer 10 reads (downloads) any one or more time series information recorded in the HDD of the personal computer 1, and displays the stroke indicated by the read time series information on the touch screen display 12 of the tablet computer 10. Can be displayed on the screen. In this case, a list of thumbnails obtained by reducing each page of a plurality of time-series information may be displayed on the screen of the touch screen display 12, or one page selected from these thumbnails may be displayed on the touch screen display 12. You may display in normal size on the screen.

更に、タブレットコンピュータ10が通信する先はパーソナルコンピュータ1ではなく、上述したように、ストレージサービス等を提供するクラウド上のサーバ2であってもよい。タブレットコンピュータ10は、時系列情報(手書き文書データ)をインターネットを介してサーバ2に送信して、サーバ2のストレージデバイス2Aに記録することができる(アップロード)。更に、タブレットコンピュータ10は、サーバ2のストレージデバイス2Aに記録されている任意の時系列情報を読み出して(ダウンロード)、その時系列情報によって示されるストロークそれぞれの軌跡をタブレットコンピュータ10のタッチスクリーンディスプレイ12の画面に表示することができる。   Furthermore, the destination to which the tablet computer 10 communicates may be the server 2 on the cloud that provides a storage service or the like, as described above, instead of the personal computer 1. The tablet computer 10 can transmit time series information (handwritten document data) to the server 2 via the Internet and record it in the storage device 2A of the server 2 (upload). Furthermore, the tablet computer 10 reads (downloads) arbitrary time-series information recorded in the storage device 2A of the server 2, and displays the trajectory of each stroke indicated by the time-series information on the touch screen display 12 of the tablet computer 10. Can be displayed on the screen.

このように、本実施形態では、時系列情報が保存される記憶媒体は、タブレットコンピュータ10内のストレージデバイス、パーソナルコンピュータ1内のストレージデバイス、サーバ2のストレージデバイスのいずれであってもよい。   As described above, in this embodiment, the storage medium in which the time series information is stored may be any one of the storage device in the tablet computer 10, the storage device in the personal computer 1, and the storage device in the server 2.

次に、図3及び図4を参照して、ユーザによって手書きされたストローク(文字、図形及び表等)と時系列情報との関係について説明する。図3は、ペン100等を使用してタッチスクリーンディスプレイ12上に手書きされる手書き文書(手書き文字列)の一例を示している。   Next, with reference to FIG. 3 and FIG. 4, the relationship between strokes (characters, figures, tables, etc.) handwritten by the user and time-series information will be described. FIG. 3 shows an example of a handwritten document (handwritten character string) handwritten on the touch screen display 12 using the pen 100 or the like.

手書き文書では、一旦手書きによって入力される文字や図形等の上に、更に別の文字や図形等が手書きによって入力されるというケースが多い。図3においては、「A」、「B」及び「C」の手書き文字が、この順番で手書きによって入力され、この後に、手書きの矢印が、手書き文字「A」の近傍に手書きによって入力されている。   In a handwritten document, in many cases, another character or figure is input by handwriting on the character or figure once input by handwriting. In FIG. 3, the handwritten characters “A”, “B”, and “C” are input by handwriting in this order, and then a handwritten arrow is input by handwriting near the handwritten character “A”. Yes.

手書き文字「A」は、ペン100等を使用して手書きされた2つのストローク(「∧」形状の軌跡、「−」形状の軌跡)によって、つまり、2つの軌跡によって表現される。最初に手書きされる「∧」形状のペン100の軌跡は例えば等時間間隔でリアルタイムにサンプリングされ、これによって「∧」形状のストロークの時系列座標SD11、SD12、…、SD1nが得られる。同様に、次に手書きされる「−」形状のペン100の軌跡も等時間間隔でリアルタイムにサンプリングされ、これによって「−」形状のストロークの時系列座標SD21、SD22、…、SD2nが得られる。   The handwritten character “A” is expressed by two strokes (“∧” -shaped trajectory, “−”-shaped trajectory) handwritten using the pen 100 or the like, that is, by two trajectories. The trajectory of the first “∧” -shaped pen 100 handwritten is sampled in real time, for example, at equal time intervals, thereby obtaining the time-series coordinates SD11, SD12,. Similarly, the trajectory of the “−” shaped pen 100 to be handwritten next is also sampled in real time at equal time intervals, thereby obtaining the time series coordinates SD21, SD22,..., SD2n of the “−” shaped stroke.

手書き文字「B」は、ペン100等を使用して手書きされた2つのストローク、つまり、2つの軌跡によって表現される。手書き文字「C」は、ペン100等を使用して手書きされた1つのストローク、つまり、1つの軌跡によって表現される。手書きの「矢印」は、ペン100等を使用して手書きされた2つのストローク、つまり、2つの軌跡によって表現される。   The handwritten character “B” is represented by two strokes handwritten using the pen 100 or the like, that is, two trajectories. The handwritten character “C” is represented by one stroke handwritten using the pen 100 or the like, that is, one locus. The handwritten “arrow” is expressed by two strokes handwritten using the pen 100 or the like, that is, two trajectories.

図4は、図3の手書き文書に対応する時系列情報200を示している。時系列情報は、複数のストロークデータSD1、SD2、…、SD7を含む。時系列情報200内においては、これらストロークデータSD1、SD2、…、SD7は、これらのストロークが手書きされた順に時系列に並べられている。   FIG. 4 shows time-series information 200 corresponding to the handwritten document of FIG. The time series information includes a plurality of stroke data SD1, SD2,. In the time series information 200, these stroke data SD1, SD2,..., SD7 are arranged in time series in the order in which these strokes are handwritten.

時系列情報200において、先頭の2つのストロークデータSD1及びSD2は、手書き文字「A」の2つのストロークをそれぞれ示している。3番目及び4番目のストロークデータSD3及びSD4は、手書き文字「B」を構成する2つのストロークをそれぞれ示している。5番目のストロークデータSD5は、手書き文字「C」を構成する1つのストロークを示している。6番目及び7番目のストロークデータSD6及びSD7は、手書き「矢印」を構成する2つのストロークをそれぞれ示している。   In the time series information 200, the first two stroke data SD1 and SD2 indicate two strokes of the handwritten character “A”, respectively. The third and fourth stroke data SD3 and SD4 indicate two strokes constituting the handwritten character “B”, respectively. The fifth stroke data SD5 indicates one stroke constituting the handwritten character “C”. The sixth and seventh stroke data SD6 and SD7 indicate two strokes constituting the handwritten “arrow”, respectively.

各ストロークデータは、1つのストロークに対応する座標データ系列(時系列座標)、つまり、1つのストローク軌跡上の複数のサンプリング点それぞれに対応する複数の座標を含む。各ストロークデータにおいては、複数のサンプリング点の座標はストロークが書かれた順(サンプリングされた順)に時系列に並べられている。例えば、手書き文字「A」に関しては、ストロークデータSD1は、手書き文字「A」の「∧」形状のストロークの軌跡上の点それぞれに対応する座標データ系列(時系列座標)、つまり、n個の座標データSD11、SD12、…、SD1nを含む。ストロークデータSD2は、手書き文字「A」の「−」形状のストロークの軌跡上の点それぞれに対応する座標データ系列、つまり、n個の座標データSD21、SD22、…、SD2nを含む。なお、座標データの数はストロークデータ毎に異なっていてもよい。ストロークを等時間間隔でサンプリングすると、ストロークの長さが異なっているので、サンプリング点の数も異なる。   Each stroke data includes a coordinate data series (time series coordinates) corresponding to one stroke, that is, a plurality of coordinates corresponding to each of a plurality of sampling points on one stroke locus. In each stroke data, the coordinates of a plurality of sampling points are arranged in chronological order in the order in which the strokes are written (sampled order). For example, for the handwritten character “A”, the stroke data SD1 includes coordinate data series (time series coordinates) corresponding to each point on the locus of the stroke of the “∧” shape of the handwritten character “A”, that is, n pieces of data. Coordinate data SD11, SD12,..., SD1n are included. The stroke data SD2 includes coordinate data series corresponding to each point on the trajectory of the stroke of the “−” shape of the handwritten character “A”, that is, n coordinate data SD21, SD22,. Note that the number of coordinate data may be different for each stroke data. If the strokes are sampled at equal time intervals, the lengths of the strokes are different, so the number of sampling points is also different.

各座標データは、対応する軌跡内のある1点のX座標及びY座標を示す。例えば、座標データSD11は、「∧」形状のストロークの始点のX座標(X11)及びY座標(Y11)を示す。SD1nは、「∧」形状のストロークの終点のX座標(X1n)及びY座標(Y1n)を示す。   Each coordinate data indicates the X coordinate and Y coordinate of a certain point in the corresponding locus. For example, the coordinate data SD11 indicates the X coordinate (X11) and the Y coordinate (Y11) of the start point of the “∧” -shaped stroke. SD1n indicates the X coordinate (X1n) and Y coordinate (Y1n) of the end point of the “∧” -shaped stroke.

各座標データは、その座標に対応する点が手書きされた時点(サンプリングタイミング)に対応するタイムスタンプ情報Tを含んでいてもよい。手書きされた時点は、絶対時間(例えば、年月日時分秒)またはある時点を基準とした相対時間のいずれであってもよい。例えば、各ストロークデータに、ストロークが書き始められた絶対時間をタイムスタンプ情報として付加し、更に、ストロークデータ内の各座標データに、当該絶対時間との差分を示す相対時間をタイムスタンプ情報Tとして付加してもよい。   Each coordinate data may include time stamp information T corresponding to the time point (sampling timing) when the point corresponding to the coordinates is handwritten. The handwritten time may be either absolute time (for example, year / month / day / hour / minute / second) or relative time based on a certain time. For example, the absolute time when the stroke is started to be written is added as time stamp information to each stroke data, and the relative time indicating the difference from the absolute time is added as time stamp information T to each coordinate data in the stroke data. It may be added.

このように、各座標データにタイムスタンプ情報Tが追加された時系列情報を使用することにより、ストローク間の時間的関係をより精度よく表すことができる。図4には示されていないが、各座標データには、筆圧を示す情報(Z)を追加してもよい。   As described above, by using the time series information in which the time stamp information T is added to each coordinate data, the temporal relationship between the strokes can be expressed more accurately. Although not shown in FIG. 4, information (Z) indicating writing pressure may be added to each coordinate data.

図4で説明したような構造を有する時系列情報200は、個々のストロークの筆跡だけでなく、ストローク間の時間的関係も表すことができる。したがって、この時系列情報200を使用することにより、図3に示すようにたとえ手書き「矢印」の先端部が手書き文字「A」上に重ねてまたは手書き文字「A」に近接して書かれたとしても、当該手書き文字「A」と手書き「矢印」の先端部とを異なる文字または図形として扱うことが可能となる。   The time series information 200 having the structure as described in FIG. 4 can represent not only the handwriting of each stroke but also the temporal relationship between the strokes. Therefore, by using this time-series information 200, as shown in FIG. 3, the tip of the handwritten “arrow” is written over the handwritten character “A” or close to the handwritten character “A”. However, the handwritten character “A” and the tip of the handwritten “arrow” can be handled as different characters or figures.

更に、本実施形態では、上述したように、手書き文書データは、イメージまたは文字認識結果ではなく、時系列のストロークデータの集合から構成される時系列情報200として記憶されるので、手書き文字の言語に依存せずに手書き文字を扱うことができる。したがって、本実施形態における時系列情報200の構造は、使用言語の異なる世界中の様々な国で共通に使用できる。   Further, in the present embodiment, as described above, handwritten document data is not stored as an image or character recognition result, but is stored as time-series information 200 composed of a set of time-series stroke data. It can handle handwritten characters without depending on. Therefore, the structure of the time-series information 200 in this embodiment can be commonly used in various countries around the world with different languages.

図5は、タブレットコンピュータ10のシステム構成を示す図である。図5に示すように、タブレットコンピュータ10は、CPU101、不揮発性メモリ102、主メモリ103、BIOS−ROM104、システムコントローラ105、グラフィクスコントローラ106、無線通信デバイス107及びEC等を備える。また、タブレットコンピュータ10において、図1に示すタッチスクリーンディスプレイ12は、LCD12A、タッチパネル12B及びデジタイザ12Cを備える。   FIG. 5 is a diagram showing a system configuration of the tablet computer 10. As shown in FIG. 5, the tablet computer 10 includes a CPU 101, a nonvolatile memory 102, a main memory 103, a BIOS-ROM 104, a system controller 105, a graphics controller 106, a wireless communication device 107, an EC, and the like. In the tablet computer 10, the touch screen display 12 shown in FIG. 1 includes an LCD 12A, a touch panel 12B, and a digitizer 12C.

CPU101は、タブレットコンピュータ10内の各種モジュールの動作を制御するプロセッサである。CPU101は、ストローレジデバイスである不揮発性メモリ102から主メモリ103にロードされる各種ソフトウェアを実行する。これらソフトウェアには、オペレーティングシステム(OS)103a及び各種アプリケーションプログラムが含まれている。各種アプリケーションプログラムには、手書きノートアプリケーションプログラム103bが含まれている。以下では、手書き文書データを手書きノートとも称する。   The CPU 101 is a processor that controls the operation of various modules in the tablet computer 10. The CPU 101 executes various software loaded into the main memory 103 from the nonvolatile memory 102 which is a straw register device. The software includes an operating system (OS) 103a and various application programs. The various application programs include a handwritten note application program 103b. Hereinafter, the handwritten document data is also referred to as a handwritten note.

この手書きノートアプリケーションプログラム103bは、上述の手書き文書データを作成及び表示する機能、手書き文書データを編集する機能、所望の手書き部分を含む手書き文書データや、ある手書き文書データ内の所望の手書き部分を検索するための手書き文書検索機能等を有している。   This handwritten note application program 103b has a function for creating and displaying the above-mentioned handwritten document data, a function for editing handwritten document data, handwritten document data including a desired handwritten part, and a desired handwritten part in certain handwritten document data. It has a handwritten document search function for searching.

更に、手書きノートアプリケーションプログラム103bは、例えばタブレットコンピュータ10の画面上で入力するストロークを指定するための操作に用いられるユーザインタフェースを表示する機能を有しているものとする。なお、このユーザインタフェースには、例えばストローク(手書き文字列)のフォント、色彩、スタイル(太さ)及びサイズ等を指定するための操作及び後述する手書き入力の候補を指定するための操作に用いられるユーザインタフェース等が含まれる。更に、このユーザインタフェースは、例えば後述する手書きされたストローク(手書き文字列)の入力の確定を指定するための操作及び当該ストロークの入力のキャンセルを指定するための操作に用いられるユーザインタフェース等であってもよい。すなわち、本実施形態において表示されるユーザインタフェースは、ユーザによる手書き入力操作を補助する機能(以下、入力補助機能と表記)を利用するための操作に用いられるユーザインタフェース(以下、入力補助UIと表記)を含む。以下の説明においては、本実施形態において表示されるユーザインタフェースは入力補助UIであるものとして説明するが、当該ユーザインタフェースはユーザによる手書き入力操作時に表示されるものであればよい。   Further, it is assumed that the handwritten note application program 103b has a function of displaying a user interface used for an operation for designating a stroke to be input on the screen of the tablet computer 10, for example. The user interface is used for, for example, an operation for specifying a font (color), color, style (thickness), size, and the like of a stroke (handwritten character string) and an operation for specifying a candidate for handwriting input to be described later. User interface etc. are included. Furthermore, this user interface is, for example, a user interface used for an operation for designating confirmation of input of a handwritten stroke (handwritten character string), which will be described later, and an operation for designating cancellation of input of the stroke. May be. That is, the user interface displayed in the present embodiment is a user interface (hereinafter referred to as input assist UI) used for an operation for using a function for assisting handwriting input operation by the user (hereinafter referred to as input assist function). )including. In the following description, the user interface displayed in the present embodiment will be described as an input auxiliary UI, but the user interface may be displayed as long as the user performs a handwriting input operation.

CPU101は、BIOS−ROM104に格納された基本入出力システム(BIOS)も実行する。BIOSは、ハードウェア制御のためのプログラムである。   The CPU 101 also executes a basic input / output system (BIOS) stored in the BIOS-ROM 104. The BIOS is a program for hardware control.

システムコントローラ105は、CPU101のローカルバスと各種コンポーネント・モジュールとの間を接続するデバイスである。システムコントローラ105には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。システムコントローラ105は、PCI EXPRESS規格のシリアルバス等を介してグラフィクスコントローラ106との通信を実行する機能も有している。   The system controller 105 is a device for connecting between the local bus of the CPU 101 and various component modules. The system controller 105 also includes a memory controller that controls access to the main memory 103. The system controller 105 also has a function of executing communication with the graphics controller 106 via a PCI Express standard serial bus or the like.

グラフィクスコントローラ106は、タブレットコンピュータ10のディスプレイモニタとして使用されるLCD12Aを制御する表示コントローラである。グラフィクスコントローラ106によって生成される表示信号はLCD12Aに送られる。LCD12Aは、表示信号に基づいて画面イメージを表示する。LCD12A、タッチパネル12B及びデジタイザ12Cは互いに重ね合わされている。タッチパネル12Bは、LCD12Aの画面上で入力を行うための静電容量式のポインティングデバイスである。指が接触される画面上の接触位置及び当該接触位置の動き等は、タッチパネル12Bによって検出される。また、このタッチパネル12Bによれば、例えば画面上で手書き入力操作が行われる際の当該画面上におけるユーザの手の接触等も検出することができる。デジタイザ12Cは、LCD12Aの画面上で入力を行うための電磁誘導式のポインティングデバイスである。ペン(デジタイザペン)100が接触される画面上の接触位置及び当該接触位置の動き等は、デジタイザ12Cによって検出される。   The graphics controller 106 is a display controller that controls the LCD 12 </ b> A used as a display monitor of the tablet computer 10. A display signal generated by the graphics controller 106 is sent to the LCD 12A. The LCD 12A displays a screen image based on the display signal. The LCD 12A, the touch panel 12B, and the digitizer 12C are overlaid on each other. The touch panel 12B is a capacitance-type pointing device for inputting on the screen of the LCD 12A. The touch position on the screen where the finger is touched and the movement of the touch position are detected by the touch panel 12B. In addition, according to the touch panel 12B, for example, contact of a user's hand on the screen when a handwriting input operation is performed on the screen can be detected. The digitizer 12C is an electromagnetic induction type pointing device for inputting on the screen of the LCD 12A. The contact position on the screen where the pen (digitizer pen) 100 is touched, the movement of the contact position, and the like are detected by the digitizer 12C.

無線通信デバイス107は、無線LANまたは3G移動通信等の無線通信を実行するように構成されたデバイスである。   The wireless communication device 107 is a device configured to execute wireless communication such as wireless LAN or 3G mobile communication.

EC108は、電力管理のためのエンベデッドコントローラを含むワンチップマイクロコンピュータである。EC108は、ユーザによるパワーボタンの操作に応じてタブレットコンピュータ10を電源オンまたは電源オフする機能を有している。   The EC 108 is a one-chip microcomputer including an embedded controller for power management. The EC 108 has a function of turning on or off the tablet computer 10 in accordance with the operation of the power button by the user.

次に、上述した手書きノートアプリケーションプログラム103bによってユーザに提示されるいくつかの代表的な画面の例を説明する。   Next, examples of some typical screens presented to the user by the above-described handwritten note application program 103b will be described.

図6は、手書きノートアプリケーションプログラム103bのホーム画面の一例を示す。ホーム画面は複数の手書き文書データを扱うための基本画面であり、ノートの管理や、アプリケーション全体の設定を行うことができる。   FIG. 6 shows an example of the home screen of the handwritten note application program 103b. The home screen is a basic screen for handling a plurality of handwritten document data, and can manage notes and set the entire application.

ホーム画面は、デスクトップ画面領域70と引き出し画面領域71とを含む。デスクトップ画面領域70は、作業中の複数の手書きノートに対応する複数のノートアイコン801〜805を表示するテンポラリ領域である。ノートアイコン801〜805の各々は、対応する手書きノート内のあるページのサムネイルを表示する。デスクトップ画面領域70は、更に、ペンアイコン771、カレンダーアイコン772、スクラップノート(ギャラリー)アイコン773及びタグ(ラベル)アイコン774を表示する。   The home screen includes a desktop screen area 70 and a drawer screen area 71. The desktop screen area 70 is a temporary area for displaying a plurality of note icons 801 to 805 corresponding to a plurality of handwritten notes being worked. Each of the note icons 801 to 805 displays a thumbnail of a page in the corresponding handwritten note. The desktop screen area 70 further displays a pen icon 771, a calendar icon 772, a scrap note (gallery) icon 773, and a tag (label) icon 774.

ペンアイコン771は、表示画面をホーム画面からページ編集画面に切り替えるためのグラフィカルユーザインタフェース(GUI)である。カレンダーアイコン772は、現在の日付を示すアイコンである。スクラップノートアイコン773は、他のアプリケーションプログラムからまたは外部ファイルから取り込んだデータ(スクラップデータまたはギャラリーデータ)を閲覧するためのGUIである。タグアイコン774は、任意の手書きノート内の任意のページにラベル(タグ)を貼り付けるためのGUIである。   The pen icon 771 is a graphical user interface (GUI) for switching the display screen from the home screen to the page editing screen. The calendar icon 772 is an icon indicating the current date. The scrap note icon 773 is a GUI for browsing data (scrap data or gallery data) imported from another application program or from an external file. The tag icon 774 is a GUI for attaching a label (tag) to an arbitrary page in an arbitrary handwritten note.

引き出し画面領域71は、作成済みの全ての手書きノートを格納するためのストレージ領域を閲覧するための表示領域である。引き出し画面領域71は、全ての手書きノート内のいくつかの手書きノートに対応するノートアイコン80A、80B及び80Cを表示する。ノートアイコン80A、80B及び80Cの各々は、対応する手書きノート内のあるページのサムネイルを表示する。手書きノートアプリケーションプログラム103bは、ペン100または指を使用してユーザによって行われる引き出し画面領域71上のあるジェスチャ(例えば、スワイプジェスチャ等)を検出することができる。このジェスチャ(例えば、スワイプジェスチャ等)の検出に応答して、手書きノートアプリケーションプログラム103bは、引き出し画面領域71上の画面イメージを左方向または右方向にスクロールする。これにより、引き出し画面領域71に任意の手書きノートそれぞれに対応するノートアイコンを表示することができる。   The drawer screen area 71 is a display area for browsing a storage area for storing all created handwritten notes. The drawer screen area 71 displays note icons 80A, 80B and 80C corresponding to some handwritten notes in all handwritten notes. Each of the note icons 80A, 80B, and 80C displays a thumbnail of a page in the corresponding handwritten note. The handwritten note application program 103b can detect a certain gesture (for example, a swipe gesture) on the drawer screen area 71 performed by the user using the pen 100 or a finger. In response to detection of this gesture (for example, a swipe gesture), the handwritten note application program 103b scrolls the screen image on the drawer screen area 71 leftward or rightward. Thereby, the note icon corresponding to each arbitrary handwritten note can be displayed in the drawer screen area 71.

手書きノートアプリケーションプログラム103bは、ペン100または指を使用してユーザによって行われる引き出し画面領域71のノートアイコン上の他のジェスチャ(例えば、タップジェスチャ等)を検出することができる。引き出し画面領域71上のあるノートアイコン上のジェスチャ(例えば、タップジェスチャ等)の検出に応答して、手書きノートアプリケーションプログラム103bは、このノートアイコンをデスクトップ画面領域70の中央部に移動する。そして、手書きノートアプリケーションプログラム103bは、このノートアイコンに対応する手書きノートを選択し、デスクトップ画面の代わりに図7に示すノートプレビュー画面を表示する。図7に示すノートプレビュー画面は、選択された手書きノート内の任意のページを閲覧可能な画面である。   The handwritten note application program 103b can detect another gesture (for example, a tap gesture) on the note icon in the drawer screen area 71 performed by the user using the pen 100 or a finger. In response to detecting a gesture (for example, a tap gesture) on a note icon on the drawer screen area 71, the handwritten note application program 103b moves the note icon to the center of the desktop screen area 70. The handwritten note application program 103b selects a handwritten note corresponding to the note icon, and displays a note preview screen shown in FIG. 7 instead of the desktop screen. The note preview screen shown in FIG. 7 is a screen on which an arbitrary page in the selected handwritten note can be viewed.

更に、手書きノートアプリケーションプログラム103bは、ペン100または指を使用してユーザによって行われるデスクトップ画面領域70上のジェスチャ(例えば、タップジェスチャ等)も検出することができる。デスクトップ画面領域70の中央部に位置するノートアイコン上のジェスチャ(例えば、タップジェスチャ等)の検出に応答して、手書きノートアプリケーションプログラム103bは、中央部に位置するノートアイコンに対応する手書きノートを選択し、そして、デスクトップ画面の代わりに図7に示すノートプレビュー画面を表示する。   Furthermore, the handwritten note application program 103b can also detect a gesture (for example, a tap gesture) on the desktop screen area 70 performed by the user using the pen 100 or a finger. In response to detecting a gesture (for example, a tap gesture) on a note icon located at the center of the desktop screen area 70, the handwritten note application program 103b selects a handwritten note corresponding to the note icon located at the center. Then, a note preview screen shown in FIG. 7 is displayed instead of the desktop screen.

更に、ホーム画面は、メニューを表示することができる。このメニューは、画面の下部、例えば引き出し画面領域71に表示されるノート一覧ボタン81A、ノート作成ボタン81B、ノート削除ボタン81C、検索ボタン81D及び設定ボタン81Eを備える。ノート一覧ボタン81Aは、手書きノートの一覧を表示するためのボタンである。ノート作成ボタン81Bは、新しい手書きノートを作成(追加)するためのボタンである。ノート削除ボタン81Cは、手書きノートを削除するためのボタンである。検索ボタン81Dは、検索画面(検索ダイアログ)を開くためのボタンである。設定ボタン81Eは、アプリケーションの設定画面を開くためのボタンである。   Further, the home screen can display a menu. This menu includes a note list button 81A, a note creation button 81B, a note deletion button 81C, a search button 81D, and a setting button 81E displayed in the lower part of the screen, for example, the drawer screen area 71. The note list button 81A is a button for displaying a list of handwritten notes. The note creation button 81B is a button for creating (adding) a new handwritten note. The note deletion button 81C is a button for deleting a handwritten note. The search button 81D is a button for opening a search screen (search dialog). The setting button 81E is a button for opening an application setting screen.

なお、図示しないが、引き出し画面領域71の下にも、戻るボタン、ホームボタン、リーセントアプリケーションボタンが表示される。   Although not shown, a return button, a home button, and a recent application button are also displayed below the drawer screen area 71.

図8は、設定ボタン81Eがペン100または指でタップされた際に開かれる設定画面の一例を示す。   FIG. 8 shows an example of a setting screen that is opened when the setting button 81E is tapped with the pen 100 or a finger.

この設定画面には、様々な設定項目が表示される。これら設定項目には、「バックアップと復元」、「入力モード(ペンまたはタッチ入力モード)」、「ライセンス情報」及び「ヘルプ」等が含まれる。   Various setting items are displayed on this setting screen. These setting items include “backup and restoration”, “input mode (pen or touch input mode)”, “license information”, “help”, and the like.

ホーム画面においてノート作成ボタン81Bがペン100または指でタップされるとノート作成画面が表示される。ここで、タイトル欄にノートの名前を手書き入力する。なお、ノートの表紙と用紙とを選択することができる。作成ボタンを押すと、新規なノートが作成され、当該作成されたノートは引き出し画面領域71に置かれる。   When note creation button 81B is tapped with pen 100 or a finger on the home screen, a note creation screen is displayed. Here, the name of the note is input by handwriting in the title field. Note that a notebook cover and paper can be selected. When the creation button is pressed, a new note is created, and the created note is placed in the drawer screen area 71.

図7は、上述したノートプレビュー画面の一例を示す。ノートプレビュー画面は、選択された手書きノート内の任意のページを閲覧可能な画面である。ここでは、ホーム画面のデスクトップ画面領域70のノートアイコン801に対応する手書きノートが選択された場合を説明する。この場合、手書きノートアプリケーションプログラム103bは、この手書きノートに含まれる複数のページ901、902、903、904及び905を、これらページ901、902、903、904及び905それぞれの少なくとも一部分が視認可能で、かつ、これらページ901、902、903、904及び905が重なった形態で表示する。   FIG. 7 shows an example of the above-described note preview screen. The note preview screen is a screen capable of browsing an arbitrary page in the selected handwritten note. Here, a case where a handwritten note corresponding to the note icon 801 in the desktop screen area 70 of the home screen is selected will be described. In this case, the handwritten note application program 103b can visually recognize a plurality of pages 901, 902, 903, 904 and 905 included in the handwritten note, at least a part of each of these pages 901, 902, 903, 904 and 905, In addition, these pages 901, 902, 903, 904, and 905 are displayed in an overlapping form.

ノートプレビュー画面は、更に、上述のペンアイコン771、カレンダーアイコン772及びスクラップノートアイコン773を表示する。   The note preview screen further displays the pen icon 771, the calendar icon 772, and the scrap note icon 773 described above.

ノートプレビュー画面は、更に、メニューを画面下部に表示することができる。このメニューは、ホームボタン82A、ページ一覧ボタン82B、ページ追加ボタン82C、ページ編集ボタン82D、ページ削除ボタン82E、ラベルボタン82F、検索ボタン82G及びプロパティ表示ボタン82Hを備える。ホームボタン82Aは、ノートのプレビューを閉じてホーム画面を表示するためのボタンである。ページ一覧ボタン82Bは、現在選択されている手書きノート内のページの一覧を表示するためのボタンである。ページ追加ボタン82Cは、新しいページを作成(追加)するためのボタンである。ページ編集ボタン82Dは、ページ編集画面を表示するためのボタンである。ページ削除ボタン82Eは、ページを削除するためのボタンである。ラベルボタン82Fは、使用可能なラベルの種類の一覧を表示するためのボタンである。検索ボタン82Gは、検索画面を表示するためのボタンである。プロパティ表示ボタン82Hは、このノートのプロパティを表示するためのボタンである。   The note preview screen can further display a menu at the bottom of the screen. This menu includes a home button 82A, a page list button 82B, a page add button 82C, a page edit button 82D, a page delete button 82E, a label button 82F, a search button 82G, and a property display button 82H. The home button 82A is a button for closing the preview of the note and displaying the home screen. The page list button 82B is a button for displaying a list of pages in the currently selected handwritten note. The page addition button 82C is a button for creating (adding) a new page. The page edit button 82D is a button for displaying a page edit screen. The page deletion button 82E is a button for deleting a page. The label button 82F is a button for displaying a list of types of labels that can be used. The search button 82G is a button for displaying a search screen. The property display button 82H is a button for displaying the property of this note.

手書きノートアプリケーションプログラム103bは、ユーザによって行われるノートプレビュー画面上の様々なジェスチャを検出することができる。例えば、あるジェスチャの検出に応答して、手書きノートアプリケーションプログラム103bは、一番上に表示されるべきページを任意のページに変更する(ページ送り、ページ戻し)。また、一番上のページ上で行われるあるジェスチャ(例えば、タップジェスチャ)の検出に応答して、またはペンアイコン771上で行われるジェスチャ(例えば、タップジェスチャ)の検出に応答して、あるいは編集ボタン82D上で行われるあるジェスチャ(例えば、タップジェスチャ)の検出に応答して、手書きノートアプリケーションプログラム103bは、一番上のページを選択し、そしてノートプレビュー画面の代わりに、図9に示すページ編集画面を表示する。   The handwritten note application program 103b can detect various gestures on the note preview screen performed by the user. For example, in response to detection of a certain gesture, the handwritten note application program 103b changes the page to be displayed at the top to an arbitrary page (page advance, page return). Also, in response to detection of a certain gesture (for example, tap gesture) performed on the top page, or in response to detection of a gesture (for example, tap gesture) performed on the pen icon 771 or editing. In response to detecting a gesture (eg, a tap gesture) made on button 82D, handwritten note application program 103b selects the top page and instead of the note preview screen, the page shown in FIG. Display the edit screen.

図9に示すページ編集画面は、手書きノート内のページ(手書きページ)の新規作成、及び既存のページの閲覧及び編集が可能な画面である。図7に示すノートプレビュー画面上のページ901が選択された場合には、図9に示すように、ページ編集画面は、ページ901の内容を表示する。   The page editing screen shown in FIG. 9 is a screen that allows new creation of a page (handwritten page) in a handwritten note and browsing and editing of an existing page. When the page 901 on the note preview screen shown in FIG. 7 is selected, the page editing screen displays the contents of the page 901 as shown in FIG.

このページ編集画面において、破線で囲まれた矩形の領域500は、手書き可能な手書き入力領域である。手書き入力領域500においては、デジタイザ12Cからの入力イベントは手書きストロークの表示(描画)のために使用され、タップ等のジェスチャを示すイベントとしては使用されない。一方、ページ編集画面における手書き入力領域500以外の領域においては、デジタイザ12Cからの入力イベントはタップ等のジェスチャを示すイベントとしても使用され得る。   In this page editing screen, a rectangular area 500 surrounded by a broken line is a handwritten input area that can be handwritten. In the handwriting input area 500, an input event from the digitizer 12C is used for displaying (drawing) a handwritten stroke, and is not used as an event indicating a gesture such as a tap. On the other hand, in an area other than the handwriting input area 500 on the page editing screen, an input event from the digitizer 12C can be used as an event indicating a gesture such as a tap.

タッチパネル12Bからの入力イベントは、手書きストロークの表示(描画)には使用されず、タップ及びスワイプ等のジェスチャを示すイベントとして使用される。   An input event from the touch panel 12B is not used for displaying (drawing) a handwritten stroke, but is used as an event indicating a gesture such as a tap and swipe.

ページ編集画面は、更に、ユーザによって予め登録された3種類のペン501〜503と、範囲選択ペン504、消しゴムペン505とを含むクイックセレクトメニューを手書き入力領域500外の画面上部に表示する。ここでは、黒ペン501、赤ペン502及びマーカー503がユーザによって予め登録されている場合が説明されている。ユーザは、ペン100または指でクイックセレクトメニュー内のあるペン(ボタン)をタップすることにより、使用するペンの種類を切り替えることができる。例えば、黒ペン501がユーザによるペン100または指を使用したタップジェスチャによって選択された状態で、ペン100を用いた手書き入力操作がページ編集画面上で行われると、手書きノートアプリケーションプログラム103bは、ペン100の動きに合わせて黒色のストローク(軌跡)をページ編集画面上に表示する。   The page editing screen further displays a quick select menu including three types of pens 501 to 503 registered in advance by the user, a range selection pen 504, and an eraser pen 505 at the top of the screen outside the handwriting input area 500. Here, a case where the black pen 501, red pen 502, and marker 503 are registered in advance by the user is described. The user can switch the type of pen to be used by tapping a pen (button) in the quick select menu with the pen 100 or a finger. For example, when the handwriting input operation using the pen 100 is performed on the page editing screen in a state where the black pen 501 is selected by the user using the pen 100 or a tap gesture using a finger, the handwriting note application program 103b is A black stroke (trajectory) is displayed on the page edit screen in accordance with 100 movements.

クイックセレクトメニュー内の上述の3種類のペンは、ペン100のサイドボタン(図示せず)の操作によっても切り替えることができる。クイックセレクトメニュー内の上述の3種類のペンの各々には、よく使うペンの色やペンの太さの組み合わせを設定することができる。   The above-mentioned three types of pens in the quick select menu can be switched by operating a side button (not shown) of the pen 100. For each of the above-described three types of pens in the quick select menu, combinations of frequently used pen colors and pen thicknesses can be set.

ページ編集画面は、更に、メニューボタン511、ページ戻し(ノートプレビュー画面に戻る)ボタン512及び新規ページ追加ボタン513を、手書き入力領域500外の画面下部に表示する。メニューボタン511は、メニューを表示するためのボタンである。   The page editing screen further displays a menu button 511, a page return (return to note preview screen) button 512, and a new page addition button 513 at the bottom of the screen outside the handwriting input area 500. The menu button 511 is a button for displaying a menu.

このメニューは、例えば、このページをゴミ箱に入れる、コピーやカットしたページの一部を貼り付ける、検索画面を開く、エクスポートサブメニューを表示する、インポートサブメニューを表示する、ページをテキストに変換してメールを送る、ペンケースを表示する等のボタンを表示してもよい。エクスポートサブメニューは、例えば、ページ編集画面上に表示されている手書きページを認識して電子文書ファイル、プレゼンテーションファイル、画像ファイル等に変換する機能、あるいはページを画像ファイルに変換して他のアプリケーションと共有する機能をユーザに選択させる。インポートサブメニューは、例えば、メモギャラリーからメモをインポートする機能、あるいはギャラリーから画像をインポートする機能をユーザに選択させる。ペンケースは、クイックセレクトメニュー内の3種類のペンの各々の色(描画される線の色)及び太さ(描画される線の太さ)を変更可能なペン設定画面を呼び出すためのボタンである。   This menu includes, for example, putting this page in the trash, pasting a part of the copied or cut page, opening the search screen, displaying the export submenu, displaying the import submenu, converting the page to text Buttons for sending an e-mail and displaying a pen case may be displayed. The export submenu is, for example, a function for recognizing a handwritten page displayed on the page editing screen and converting it into an electronic document file, presentation file, image file, etc., or converting a page into an image file and other applications. Have users select the features to share. For example, the import submenu allows the user to select a function for importing a memo from the memo gallery or a function for importing an image from the gallery. The pen case is a button for calling up the pen setting screen that allows you to change the color (color of the line to be drawn) and thickness (thickness of the line to be drawn) of each of the three types of pens in the quick select menu. is there.

図10は、検索画面(検索ダイアログ)の例を示す。図10では、図7に示すノートプレビュー画面上で検索ボタン82Gが選択され、当該ノートプレビュー画面上に検索画面(検索ダイアログ)が開かれた場合が説明されている。   FIG. 10 shows an example of a search screen (search dialog). FIG. 10 illustrates a case where the search button 82G is selected on the note preview screen shown in FIG. 7 and the search screen (search dialog) is opened on the note preview screen.

検索画面は、検索キー入力領域530、筆跡検索ボタン531、テキスト検索ボタン532、デリートボタン533及び検索実行ボタン534を表示する。筆跡検索ボタン531は、筆跡検索を選択するためのボタンである。テキスト検索ボタン532は、テキスト検索を選択するためのボタンである。検索実行ボタン534は、検索処理の実行を要求するためのボタンである。   The search screen displays a search key input area 530, a handwriting search button 531, a text search button 532, a delete button 533, and a search execution button 534. The handwriting search button 531 is a button for selecting handwriting search. The text search button 532 is a button for selecting text search. The search execution button 534 is a button for requesting execution of search processing.

筆跡検索においては、検索キー入力領域530は、検索キーとすべき文字列、図形及び表等を手書きするための入力領域として使用される。図10においては、検索キー入力領域530に手書き文字列「Determine」が検索キーとして入力されている。ユーザは、手書き文字列に限らず、手書き図形及び手書き表等を検索キー入力領域530にペン100で手書きすることができる。検索キー入力領域530に手書き文字列「Determine」が検索キーとして入力された状態で検索実行ボタン534がユーザによって選択されると、手書き文字列「Determine」を構成するストローク集合(クエリーストローク集合)を用いて、このクエリーストローク集合に対応するストローク集合を含む手書き文書(ノート)を検索するための筆跡検索が実行される。筆跡検索では、ストローク間のマッチングによって、クエリーストローク集合に類似するストローク集合が検索される。クエリーストローク集合とある別のストローク集合との間の類似度の算出においては、DP(Dynamic Programming)マッチングを使用してもよい。   In handwriting search, the search key input area 530 is used as an input area for handwriting a character string, a figure, a table, and the like to be used as a search key. In FIG. 10, the handwritten character string “Determine” is input as a search key in the search key input area 530. The user can handwrite not only the handwritten character string but also a handwritten figure, a handwritten table, and the like in the search key input area 530 with the pen 100. When the search execution button 534 is selected by the user while the handwritten character string “Determine” is input as a search key in the search key input area 530, a stroke set (query stroke set) constituting the handwritten character string “Determine” is selected. The handwriting search for searching for a handwritten document (note) including a stroke set corresponding to the query stroke set is executed. In handwriting search, a stroke set similar to the query stroke set is searched by matching between strokes. In calculating the similarity between the query stroke set and another stroke set, DP (Dynamic Programming) matching may be used.

テキスト検索においては、例えばソフトウェアキーボードが画面上に表示される。ユーザは、ソフトウェアキーボードを操作することによって任意のテキスト(文字列)を検索キーとして検索キー入力領域530に入力することができる。検索キー入力領域530にテキストが検索キーとして入力された状態で検索実行ボタン534がユーザによって選択されると、このテキスト(クエリーテキスト)を表すストローク集合を含む手書きノートを検索するためのテキスト検索が実行される。   In text search, for example, a software keyboard is displayed on the screen. The user can input an arbitrary text (character string) to the search key input area 530 as a search key by operating the software keyboard. When the search execution button 534 is selected by the user in a state where text is input as a search key in the search key input area 530, text search for searching for a handwritten note including a stroke set representing the text (query text) is performed. Executed.

筆跡検索/テキスト検索は、全ての手書き文書を対象に実行することもできるし、選択された手書き文書のみを対象に実行することもできる。筆跡検索/テキスト検索が実行されると、検索結果画面が表示される。検索結果画面においては、クエリーストローク集合(またはクエリーテキスト)に対応するストローク集合を含む手書き文書(ページ)の一覧が表示される。なお、ヒットワード(クエリーストローク集合またはクエリーテキストに対応するストローク集合)は、強調表示される。   The handwriting search / text search can be executed for all handwritten documents, or can be executed only for selected handwritten documents. When handwriting search / text search is executed, a search result screen is displayed. On the search result screen, a list of handwritten documents (pages) including a stroke set corresponding to the query stroke set (or query text) is displayed. Note that hit words (a stroke set corresponding to a query stroke set or a query text) are highlighted.

次に、図11を参照して、タブレットコンピュータ10によって実行される手書きノートアプリケーションプログラム103bの機能構成について説明する。   Next, the functional configuration of the handwritten note application program 103b executed by the tablet computer 10 will be described with reference to FIG.

手書きノートアプリケーションプログラム103bは、手書き文書データを扱うことが可能なWYSIWYGアプリケーションである。この手書きノートアプリケーションプログラム103bは、例えば、表示処理部301、時系列情報生成部302、編集処理部303、ページ保存処理部304、ページ取得処理部305及び作業メモリ401等を備える。表示処理部301は、手書きデータ入力部301A、筆跡描画部301B及びUI表示処理部301Cを含む。   The handwritten note application program 103b is a WYSIWYG application capable of handling handwritten document data. The handwritten note application program 103b includes, for example, a display processing unit 301, a time-series information generation unit 302, an editing processing unit 303, a page storage processing unit 304, a page acquisition processing unit 305, a work memory 401, and the like. The display processing unit 301 includes a handwritten data input unit 301A, a handwriting drawing unit 301B, and a UI display processing unit 301C.

上述したタッチパネル12Bは、「タッチ(接触)」、「移動(スライド)」及び「リリース」等のイベントの発生を検出するように構成されている。「タッチ(接触)」は、画面上のオブジェクト(指)が接触したことを示すイベントである。「移動(スライド)」は、画面上にオブジェクト(指)が接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面からオブジェクト(指)が離されたことを示すイベントである。   The touch panel 12B described above is configured to detect occurrence of events such as “touch (contact)”, “movement (slide)”, and “release”. “Touch (contact)” is an event indicating that an object (finger) on the screen has touched. “Move (slide)” is an event indicating that the contact position has been moved while the object (finger) is in contact with the screen. “Release” is an event indicating that an object (finger) has been released from the screen.

上述したデジタイザ12Cも、「タッチ(接触)」、「移動(スライド)」及び「リリース」等のイベントの発生を検出するように構成されている。「タッチ(接触)」は、画面上にオブジェクト(ペン100)が接触したことを示すイベントである。「移動(スライド)」は、画面上にオブジェクト(ペン100)が接触されている間に接触位置が移動されたことを示すイベントである。「リリース」は、画面からオブジェクト(ペン100)が離されたことを示すイベントである。   The above-described digitizer 12C is also configured to detect occurrence of events such as “touch (contact)”, “movement (slide)”, and “release”. “Touch (contact)” is an event indicating that the object (pen 100) has touched the screen. “Move (slide)” is an event indicating that the contact position has been moved while the object (pen 100) is in contact with the screen. “Release” is an event indicating that the object (pen 100) has been released from the screen.

手書きノートアプリケーションプログラム103bは、手書きページデータの作成、閲覧及び編集を行うためのページ編集画面をタッチスクリーンディスプレイ12上に表示する。   The handwritten note application program 103b displays on the touch screen display 12 a page editing screen for creating, browsing and editing handwritten page data.

表示処理部301及び時系列情報生成部302は、デジタイザ12Cによって発生される「タッチ(接触)」、「移動(スライド)」または「リリース」のイベントを受信し、これによって手書き入力操作を検出する。「タッチ(接触)」イベントには、接触位置の座標が含まれている。「移動(スライド)」イベントには、移動先の接触位置の座標が含まれている。したがって、表示処理部301及び時系列情報生成部302は、デジタイザ12Cから接触位置の動きの軌跡に対応する座標列を受信することができる。   The display processing unit 301 and the time-series information generation unit 302 receive a “touch (contact)”, “move (slide)”, or “release” event generated by the digitizer 12C, and thereby detect a handwriting input operation. . The “touch (contact)” event includes the coordinates of the contact position. The “movement (slide)” event includes the coordinates of the contact position of the movement destination. Therefore, the display processing unit 301 and the time-series information generating unit 302 can receive a coordinate sequence corresponding to the movement locus of the contact position from the digitizer 12C.

表示処理部301は、デジタイザ12Cを用いて検出される画面上のオブジェクト(ペン100)の動きに応じて手書きストロークを画面上に表示する。この表示処理部301により画面にペン100が接触している間のペン100の軌跡、つまり、各ストロークの軌跡がページ編集画面上に表示される。   The display processing unit 301 displays a handwritten stroke on the screen according to the movement of the object (pen 100) on the screen detected using the digitizer 12C. The display processing unit 301 displays the trajectory of the pen 100 while the pen 100 is in contact with the screen, that is, the trajectory of each stroke on the page editing screen.

時系列情報生成部302は、デジタイザ12Cから出力される上述の座標列を受信し、この座標列に基づいて、図4において詳述したような構造を有する時系列情報(座標データ系列)を含む手書きデータを生成する。時系列情報生成部302は、生成された手書きデータを作業メモリ401に一時保存する。   The time series information generation unit 302 receives the above-described coordinate sequence output from the digitizer 12C, and includes time series information (coordinate data sequence) having a structure as described in detail in FIG. 4 based on the coordinate sequence. Generate handwritten data. The time series information generation unit 302 temporarily stores the generated handwritten data in the work memory 401.

編集処理部303は、現在表示中の手書きページを編集するための処理を実行する。すなわち、編集処理部303は、タッチスクリーンディスプレイ12上でユーザによって行われる編集操作及び手書き入力操作に応じて、現在表示中の手書きページに新たなストローク(新たな手書き文字及び新たな手書きマーク等)を追加する処理、表示されている複数のストローク内の1以上のストロークを削除または移動する処理等を含む編集処理を実行する。更に、編集処理部303は、編集処理の結果を表示中の時系列情報に反映するために作業メモリ401内の時系列情報を更新する。   The edit processing unit 303 executes a process for editing the handwritten page currently being displayed. That is, the edit processing unit 303 adds a new stroke (new handwritten character, new handwritten mark, etc.) to the currently displayed handwritten page in response to an editing operation and a handwriting input operation performed by the user on the touch screen display 12. Edit processing including processing for adding a character, processing for deleting or moving one or more of the displayed strokes, and the like are executed. Further, the edit processing unit 303 updates the time series information in the work memory 401 in order to reflect the result of the edit process in the time series information being displayed.

ページ保存処理部304は、作成中の手書きページ上の複数の手書きストロークに対応する複数のストロークデータを含む手書きページデータを記憶媒体402に保存する。記憶媒体402は、例えばタブレットコンピュータ10内のストレージデバイスであってもよいし、例えばサーバ(コンピュータ)2のストレージデバイスであってもよい。   The page storage processing unit 304 stores handwritten page data including a plurality of stroke data corresponding to a plurality of handwritten strokes on the handwritten page being created in the storage medium 402. The storage medium 402 may be, for example, a storage device in the tablet computer 10 or may be a storage device of the server (computer) 2, for example.

ページ取得処理部305は、記憶媒体402から任意の手書きページデータを取得する。この取得された手書きページデータは、表示処理部301に送られる。表示処理部301は、手書きページデータに含まれる複数のストロークデータに対応する複数のストロークを画面上に表示する。   The page acquisition processing unit 305 acquires arbitrary handwritten page data from the storage medium 402. The acquired handwritten page data is sent to the display processing unit 301. The display processing unit 301 displays a plurality of strokes corresponding to the plurality of stroke data included in the handwritten page data on the screen.

次に、図11に示す表示処理部301の詳細について説明する。
前述したように、タッチスクリーンディスプレイ12は、画面に対するタッチ操作をタッチパネル12Bまたはデジタイザ12Cで検出する。手書きデータ入力部301Aは、タッチパネル12Bまたはデジタイザ12Cから出力される検出信号を入力するモジュールである。検出信号には、タッチ位置の座標情報(X,Y)が含まれている。このような検出信号を時系列順に入力することによって、手書きデータ入力部301Aは、手書き入力操作に応じた(つまり、手書きで記載される)ストロークに対応するストロークデータを入力する。手書きデータ入力部301Aによって入力されたストロークデータ(検出信号)は、筆跡描画部301Bに供給される。
Next, details of the display processing unit 301 illustrated in FIG. 11 will be described.
As described above, the touch screen display 12 detects a touch operation on the screen by the touch panel 12B or the digitizer 12C. The handwritten data input unit 301A is a module that inputs a detection signal output from the touch panel 12B or the digitizer 12C. The detection signal includes coordinate information (X, Y) of the touch position. By inputting such detection signals in chronological order, the handwritten data input unit 301A inputs stroke data corresponding to a stroke corresponding to a handwriting input operation (that is, written in handwriting). The stroke data (detection signal) input by the handwritten data input unit 301A is supplied to the handwriting drawing unit 301B.

筆跡描画部301Bは、手書き入力の軌跡(筆跡)を描画してタッチスクリーンディスプレイ12のLCD12Aに表示するモジュールである。筆跡描画部301Bは、手書きデータ入力部301Aからのストロークデータ(検出信号)に基づき、手書き入力の軌跡(筆跡)に対応する線分を描画する。   The handwriting drawing unit 301 </ b> B is a module that draws a handwriting input locus (handwriting) and displays it on the LCD 12 </ b> A of the touch screen display 12. The handwriting drawing unit 301B draws a line segment corresponding to the locus (handwriting) of handwriting input based on the stroke data (detection signal) from the handwriting data input unit 301A.

UI表示処理部301Cは、手書きデータ入力部301Aによって入力されたストロークデータが例えば上述したページ編集画面(上の手書き入力領域500)に対する手書き入力操作に応じたストロークに対応するものである場合に、上述した入力補助UIを表示するモジュールである。   When the stroke data input by the handwriting data input unit 301A corresponds to a stroke corresponding to a handwriting input operation on the page editing screen (upper handwriting input area 500) described above, for example, the UI display processing unit 301C This is a module for displaying the input auxiliary UI described above.

ここで、図12を参照して、ペン100を使用してタッチスクリーンディスプレイ12の画面上で手書き入力操作を行う(つまり、1以上のストロークを手書きで記載する)場合におけるユーザの操作領域の一例について説明する。   Here, with reference to FIG. 12, an example of a user operation area when a pen 100 is used to perform a handwriting input operation on the screen of the touch screen display 12 (that is, one or more strokes are written by handwriting). Will be described.

図12においては、ユーザがペン100を使用して手書き文字列を横書きで記載する例が示されている。ここでは、手書き文字列を横書きで記載する場合の運筆方向はユーザから見て左から右方向である。なお、言語によっては、運筆方向はユーザから見て右から左方向であっても構わない。   FIG. 12 shows an example in which the user writes a handwritten character string in horizontal writing using the pen 100. Here, the handwriting direction when the handwritten character string is written horizontally is the left-to-right direction as viewed from the user. Depending on the language, the stroke direction may be from the right to the left as viewed from the user.

図12に示す領域1001は、タッチスクリーンディスプレイ12上で手書き入力操作を行う際に、ユーザの手が当該タッチスクリーンディスプレイ12上で接触する領域である。   An area 1001 illustrated in FIG. 12 is an area in which the user's hand contacts on the touch screen display 12 when a handwriting input operation is performed on the touch screen display 12.

領域1002は、ユーザの手が上記した領域1001に接触している状態で当該ユーザがペン100のペン先を動かすことができる最大の領域(手書き入力可能領域)である。なお、ユーザは領域1002の範囲内で手書き入力操作を行うことは可能であるが、当該領域1002の外周付近(例えば、上部及び下部等)においては、ペン先を動かすことができる最大の距離となってしまうため、手書き入力操作が比較的困難となる。   The area 1002 is the maximum area (a handwritten input possible area) in which the user can move the pen tip of the pen 100 in a state where the user's hand is in contact with the above-described area 1001. Note that the user can perform a handwriting input operation within the range of the area 1002, but in the vicinity of the outer periphery of the area 1002 (for example, the upper part and the lower part), the maximum distance that the pen tip can be moved is Therefore, the handwriting input operation becomes relatively difficult.

これに対して、領域1003は、上記した領域1002のうち、手書き入力操作が比較的困難となる領域を除いた領域(つまり、容易に手書き入力操作を行うことが可能な領域)である。すなわち、領域1003は、上記した領域1001にユーザの手が接触している状態において手書きでストロークを記載するのに最適な領域であり、ユーザが操作しやすいと感じられる領域である。   On the other hand, the region 1003 is a region excluding the region in which the handwriting input operation is relatively difficult (that is, a region where the handwriting input operation can be easily performed) from the region 1002 described above. That is, the region 1003 is an optimal region for writing a stroke by handwriting in a state where the user's hand is in contact with the region 1001 described above, and is a region where the user feels easy to operate.

ここで、本実施形態においては、上記した入力補助UIを介して、手書き入力操作を補助する機能を利用することができる。この入力補助UIは、ユーザの操作性を考慮すると、上記した領域1003内に表示することが好ましい。   Here, in the present embodiment, a function for assisting a handwriting input operation can be used via the input assist UI described above. This input auxiliary UI is preferably displayed in the above-described region 1003 in consideration of user operability.

しかしながら、入力補助UIに対する操作を行う必要がない場合、領域1003内に表示された入力補助UIは、ユーザによる手書き入力操作の妨げとなる可能性が高い。   However, when there is no need to perform an operation on the input auxiliary UI, the input auxiliary UI displayed in the area 1003 is likely to hinder a user's handwriting input operation.

これに対して、手書き入力操作の妨げとなることを回避するために入力補助UIを例えば領域1003以外の領域1002に表示した場合には、当該入力補助UIに対する操作が困難となる。   On the other hand, when the input auxiliary UI is displayed in, for example, the area 1002 other than the area 1003 in order to avoid the hindrance to the handwriting input operation, the operation on the input auxiliary UI becomes difficult.

そこで、本実施形態において、UI表示処理部301Cは、領域1001にユーザの手が接触している状態において手書き入力操作が行われる領域1003(第1領域)から運筆方向に所定距離(第1距離)離れた位置に入力補助UIを表示するものとする。この入力補助UIの具体的な表示例については後述する。   Therefore, in the present embodiment, the UI display processing unit 301C has a predetermined distance (first distance) from the area 1003 (first area) where the handwriting input operation is performed in a state where the user's hand is in contact with the area 1001 in the handwriting direction. ) The input auxiliary UI is displayed at a distant position. A specific display example of the input auxiliary UI will be described later.

なお、図11においては図示されていないが、手書きノートアプリケーションプログラム103bは、上記した以外に手書き入力操作に応じた1以上のストロークに基づいて特定されるストローク集合をユーザによる手書き入力の候補として例えばページ編集画面上に表示する候補表示処理部や上述した筆跡検索及びテキスト検索等を実行するための検索処理部等を備える。   Although not shown in FIG. 11, the handwritten note application program 103b may use, for example, a stroke set specified based on one or more strokes according to a handwriting input operation as a candidate for handwriting input by the user other than the above. A candidate display processing unit displayed on the page editing screen and a search processing unit for executing the above-described handwriting search and text search are provided.

以下、本実施形態に係るタブレットコンピュータ10の動作について説明する。ここでは、本実施形態に係るタブレットコンピュータ10によって実行される処理のうち、上述した手書き入力操作時(つまり、手書きでストロークが記載される際)に入力補助UIを表示する処理(以下、入力補助UI表示処理と表記)について主に説明する。   Hereinafter, the operation of the tablet computer 10 according to the present embodiment will be described. Here, among the processes executed by the tablet computer 10 according to the present embodiment, a process (hereinafter referred to as input assist) for displaying the input assist UI during the above-described handwriting input operation (that is, when strokes are written by handwriting). The UI display process and notation) will be mainly described.

図13のフローチャートを参照して、入力補助UI表示処理の処理手順の一例について説明する。なお、入力補助UI表示処理は、上記したページ編集画面上の手書き入力領域500において手書き入力操作に応じたストロークに対応するストロークデータが入力される際に実行される。   With reference to the flowchart of FIG. 13, an example of the processing procedure of the input auxiliary UI display processing will be described. The input auxiliary UI display process is executed when stroke data corresponding to a stroke corresponding to a handwriting input operation is input in the handwriting input area 500 on the page editing screen.

まず、手書きデータ入力部301Aは、ユーザによる手書き入力操作に応じた1以上のストロークに対応するストロークデータを入力する(ブロックB1)。このように手書きデータ入力部301Aによってストロークデータが入力された場合、筆跡描画部301Bは、当該ストロークデータに基づいて、手書き入力操作に応じたストローク(手書き入力の軌跡に対応する線分)を描画する処理を実行する。   First, the handwritten data input unit 301A inputs stroke data corresponding to one or more strokes according to a handwriting input operation by the user (block B1). When stroke data is input by the handwriting data input unit 301A in this way, the handwriting drawing unit 301B draws a stroke (a line segment corresponding to a handwriting input locus) based on the stroke data. Execute the process.

なお、このように手書き入力操作が行われることによってストロークデータが入力される場合、ユーザの手はタッチスクリーンディスプレイ12の画面上に接触した状態であるものとする。以下の説明においては、ブロックB1においてストロークデータが入力される際にユーザの手が接触している画面上の点を第1接触点と称する。この第1接触点(の座標)は、上述した図12に示す領域1001等に基づいてタッチスクリーンディスプレイ12に備えられるタッチパネル12Bによって検出可能である。   When stroke data is input by performing the handwriting input operation in this way, it is assumed that the user's hand is in contact with the screen of the touch screen display 12. In the following description, a point on the screen that is touched by the user's hand when stroke data is input in block B1 is referred to as a first contact point. The first contact point (coordinates thereof) can be detected by the touch panel 12B provided in the touch screen display 12 based on the above-described region 1001 shown in FIG.

次に、UI表示処理部301Cは、タッチパネル12Bからの入力イベントに基づいて、タッチスクリーンディスプレイ12の画面上からユーザの手が離れたか否かを判定する(ブロックB2)。   Next, the UI display processing unit 301C determines whether or not the user's hand has left the screen of the touch screen display 12 based on the input event from the touch panel 12B (block B2).

タッチスクリーンディスプレイ12の画面上からユーザの手が離れていないと判定された場合(ブロックB2のNO)、ユーザの手が第1接触点に接触した状態のまま手書き入力操作が継続されているものとして、上述したブロックB1に戻って処理が繰り返される。すなわち、本実施形態においては、タッチスクリーンディスプレイ12の画面上にユーザの手が接触した状態が継続している間は入力補助UIは表示されない(つまり、非表示である)。   When it is determined that the user's hand is not separated from the screen of the touch screen display 12 (NO in block B2), the handwriting input operation is continued while the user's hand is in contact with the first contact point As described above, the processing is repeated after returning to the above-described block B1. That is, in the present embodiment, the input auxiliary UI is not displayed (that is, not displayed) while the state in which the user's hand is in contact with the screen of the touch screen display 12 continues.

ここで、ユーザがペン100を使用して比較的長い文字列(ストローク集合)をタッチスクリーンディスプレイ12の画面上で記載する場合、ユーザは、運筆のために手を一旦当該画面上から離し、次の文字(列)の記載のために再度当該画面上に手を接触させるという動作(以下、運筆動作と表記)を行う場合が多い。   Here, when the user describes a relatively long character string (stroke set) on the screen of the touch screen display 12 using the pen 100, the user once removes his / her hand from the screen for handwriting, and next In many cases, an operation of bringing a hand into contact with the screen again (hereinafter referred to as a stroke operation) is performed to describe the characters (columns).

本実施形態においては、このような運筆動作を判別するために、上記したブロックB2においてタッチスクリーンディスプレイ12の画面上からユーザの手が離れたと判定された場合(ブロックB2のYES)、UI表示処理部301Cは、タッチスクリーンディスプレイ12の画面上に再びユーザの手が接触したか否かを判定する(ブロックB3)。   In this embodiment, when it is determined that the user's hand has been removed from the screen of the touch screen display 12 in the above-described block B2 in order to determine such a stroke operation (YES in block B2), UI display processing The unit 301C determines whether or not the user's hand has come into contact with the screen of the touch screen display 12 again (block B3).

タッチスクリーンディスプレイ12の画面上に再びユーザの手が接触したと判定された場合(ブロックB3のYES)、UI表示処理部301Cは、上記した運筆動作が行われたと判別することができる。以下の説明においては、このような運筆動作が行われた後にユーザの手が接触している画面上の点を第2接触点と称する。この第2接触点(の座標)は、上記した第1接触点と同様に、タッチパネル12Bによって検出可能である。   When it is determined that the user's hand has come into contact with the screen of the touch screen display 12 again (YES in block B3), the UI display processing unit 301C can determine that the above-described brushing operation has been performed. In the following description, a point on the screen where the user's hand is in contact after such a stroke operation is performed is referred to as a second contact point. The second contact point (coordinates) can be detected by the touch panel 12B in the same manner as the first contact point described above.

なお、ユーザの手が一旦画面上から離れた後に当該ユーザの手が再度画面上に接触したとしても、当該ユーザの手の動きは上記した運筆動作によるものではない可能性もある。よって、運筆動作の判別精度を向上させるために、例えば第2接触点の位置が第1接触点から予め定められた距離の範囲内で、かつ、例えば運筆方向にある場合にのみ運筆動作が行われたと判別するようにしてもよい。なお、運筆方向は、ブロックB1において入力されたストロークデータ等から判別することができるものとする。   Even if the user's hand once touches the screen after the user's hand has left the screen, the movement of the user's hand may not be due to the above-described handwriting action. Therefore, in order to improve the discrimination accuracy of the stroke operation, for example, the stroke operation is performed only when the position of the second contact point is within a predetermined distance from the first contact point and in the stroke direction, for example. You may make it discriminate | determine that it was broken. The stroke direction can be determined from the stroke data input in the block B1.

このように運筆動作が行われたと判別された場合、UI表示処理部301Cは、上述した入力補助UIを表示する位置(入力補助UIの表示位置)を決定する(ブロックB4)。この場合、UI表示処理部301Cは、例えば上記した画面上の第1接触点にユーザの手が接触した状態において手書き入力操作が行われる領域(例えば、図12に示す領域1003)から運筆方向に所定距離離れた位置を入力補助UIの表示位置として決定する。   When it is determined that the stroke operation has been performed as described above, the UI display processing unit 301C determines a position (display position of the input auxiliary UI) for displaying the input auxiliary UI described above (block B4). In this case, for example, the UI display processing unit 301C moves from the region where the handwriting input operation is performed in the state where the user's hand is in contact with the first contact point on the screen described above (for example, the region 1003 shown in FIG. 12) in the direction of handwriting A position separated by a predetermined distance is determined as the display position of the input auxiliary UI.

ここで、図14を参照して、入力補助UIの表示位置の決定処理(以下、第1の決定処理と表記)について詳細に説明する。ここでは、上述した図12と同様の部分には同一参照符号を付して、その詳しい説明を省略する。   Here, with reference to FIG. 14, the determination process of the display position of the input auxiliary UI (hereinafter referred to as the first determination process) will be described in detail. Here, the same parts as those in FIG. 12 described above are denoted by the same reference numerals, and detailed description thereof is omitted.

図14に示す領域1004は、画面上の領域1001にユーザの手が接触した状態で手書き入力操作が行われた後に、運筆動作により手を移動して手書き入力操作を行う際に当該ユーザの手が接触する領域である。なお、図14において点1001a及び点1004aは、それぞれ上記した第1接触点及び第2接触点を示す。なお、第1接触点1001a及び第2接触点1004aは、それぞれ領域1001及び領域1004の最左端に位置する点とされているが、例えば領域1001及び領域1004の中心等に位置する点であっても構わない。   An area 1004 shown in FIG. 14 is displayed when the user's hand is in contact with the area 1001 on the screen and then the user's hand is moved when the hand is moved by a handwriting operation to perform the handwriting input operation. This is the area that touches. In FIG. 14, a point 1001a and a point 1004a indicate the first contact point and the second contact point described above, respectively. The first contact point 1001a and the second contact point 1004a are points located at the leftmost ends of the region 1001 and the region 1004, respectively. It doesn't matter.

入力補助UIの表示位置の決定処理において、UI表示処理部301Cは、例えば領域1002(及び領域1003)の最右端に位置する点のX座標(以下、X1座標と表記)を取得する。なお、この領域1002及び領域1003(及びX1座標)は、上記したブロックB1において入力されたストロークデータ(時系列座標)及びタッチパネル12Bによって検出される第1接触点1001aの位置(座標)等から算出されるものとする。   In the process of determining the display position of the input auxiliary UI, the UI display processing unit 301C acquires, for example, the X coordinate (hereinafter referred to as X1 coordinate) of the point located at the rightmost end of the region 1002 (and the region 1003). The areas 1002 and 1003 (and the X1 coordinates) are calculated from the stroke data (time series coordinates) input in the block B1 and the position (coordinates) of the first contact point 1001a detected by the touch panel 12B. Shall be.

また、UI表示処理部301Cは、第2接触点1004aのX座標(以下、X2座標と表記)を取得する。   Also, the UI display processing unit 301C acquires the X coordinate (hereinafter referred to as X2 coordinate) of the second contact point 1004a.

次に、UI表示処理部301Cは、領域1003の最下端に位置する点のY座標(以下、Y1座標と表記)及び当該領域1003の最上端に位置する点のY座標(以下、Y2座標と表記)を取得する。   Next, the UI display processing unit 301C includes a Y coordinate (hereinafter referred to as Y1 coordinate) of a point located at the lowermost end of the area 1003 and a Y coordinate (hereinafter referred to as Y2 coordinate) of a point located at the uppermost end of the area 1003. (Notation).

これにより、UI表示処理部301Cは、図14に示すようにX1座標、X2座標、Y1座標及びY2座標に基づいて領域1005を算出する。   Thereby, the UI display processing unit 301C calculates the region 1005 based on the X1, X2, Y1, and Y2 coordinates as shown in FIG.

この場合、UI表示処理部301Cは、算出された領域1005(内の位置)を、入力補助UIを表示する位置として決定する。なお、入力補助UIの表示位置は、領域1005内であればよいが、当該入力補助UIと当該入力補助UIを介して利用される入力補助機能との関係性または関連性をユーザが判断することができる程度の範囲内にあるものとする。具体的には、入力補助UIを介して利用される入力補助機能が上記した手書き文字列の色彩を変更する機能である場合には、入力補助UIは、例えば領域1003内に記載された手書き文字列の近傍に表示されるものとする。   In this case, the UI display processing unit 301C determines the calculated region 1005 (inside position) as a position for displaying the input auxiliary UI. The display position of the input auxiliary UI may be within the area 1005, but the user determines the relationship or relationship between the input auxiliary UI and the input auxiliary function used via the input auxiliary UI. It shall be within a range where Specifically, when the input assist function used via the input assist UI is a function for changing the color of the handwritten character string described above, the input assist UI is, for example, the handwritten character described in the area 1003 It shall be displayed near the column.

ここで、領域1001〜領域1003によって示されるように、領域1001の近傍は手書き入力操作を行うことができない。このため、ユーザの手が接触する画面上の領域1001と手書き入力可能領域1002及び1003との間には一定の間隔が存在する。これによれば、領域1004の近傍についても手書き入力操作を行うことができないと推定される。したがって、入力補助UIをユーザが容易に手書き入力操作を行うことが可能な位置(領域)に表示するためには、上記した第2接触点のX座標を例えば第1接触点のX座標とX1座標との差分だけX軸の負方向にずらした位置のX座標を、X2座標として用いて入力補助UIを表示する位置を決定することが好ましい。   Here, as indicated by regions 1001 to 1003, handwriting input operations cannot be performed near the region 1001. For this reason, there is a certain interval between the area 1001 on the screen where the user's hand contacts and the handwritten input possible areas 1002 and 1003. According to this, it is presumed that the handwriting input operation cannot be performed even in the vicinity of the region 1004. Therefore, in order to display the input auxiliary UI at a position (area) where the user can easily perform a handwriting input operation, the X coordinate of the second contact point described above is set to, for example, the X coordinate of the first contact point and X1. It is preferable that the position where the input auxiliary UI is displayed is determined using the X coordinate of the position shifted in the negative direction of the X axis by the difference from the coordinate as the X2 coordinate.

また、ここでは領域1003の最下端に位置する点のY座標(Y1座標)及び当該領域1003の最上端に位置する点のY座標(Y2座標)を用いるものとして説明したが、当該Y1座標及びY2座標に代えて、例えば領域1002の最下端に位置する点のY座標及び当該領域1002の最上端に位置する点のY座標を用いても構わない。   Further, here, the Y coordinate (Y1 coordinate) of the point located at the lowermost end of the region 1003 and the Y coordinate (Y2 coordinate) of the point located at the uppermost end of the region 1003 have been described, but the Y1 coordinate and Instead of the Y2 coordinate, for example, the Y coordinate of the point located at the lowermost end of the region 1002 and the Y coordinate of the point located at the uppermost end of the region 1002 may be used.

なお、ここで説明した入力補助UIの表示位置の決定処理は一例であり、他の処理によって入力補助UIの表示位置を決定しても構わない。具体的には、例えば領域1001及び領域1003との位置関係から、領域1004にユーザの手が接触している場合において容易に手書き入力操作を行うことが可能な領域を算出し、当該算出された領域(内の位置)を入力補助UIの表示位置として決定しても構わない。   Note that the process of determining the display position of the input auxiliary UI described here is merely an example, and the display position of the input auxiliary UI may be determined by other processes. Specifically, for example, based on the positional relationship between the region 1001 and the region 1003, a region where a handwriting input operation can be easily performed when the user's hand is in contact with the region 1004 is calculated. The area (inside position) may be determined as the display position of the input auxiliary UI.

再び図13に戻ると、UI表示処理部301Cは、上記したように決定された入力補助UIの表示位置に当該入力補助UIを表示する(ブロックB5)。ユーザは、このように表示された入力補助UIに対して例えばペン100を使用したタッチ操作等を行うことにより、上述した入力補助機能を利用することができる。このように表示された入力補助UIは、ユーザによる円滑な手書き入力操作のために、不要と判定される場合には速やかに非表示とすることが好ましい。具体的には、例えば入力補助UIに対する操作が一定時間行われない場合には当該入力補助UIは不要であると判定し、非表示とすることができる。   Returning to FIG. 13 again, the UI display processing unit 301C displays the input auxiliary UI at the display position of the input auxiliary UI determined as described above (block B5). The user can use the input assist function described above by performing a touch operation using the pen 100, for example, on the input assist UI displayed in this way. It is preferable that the input auxiliary UI displayed in this way is quickly hidden when it is determined that the input auxiliary UI is unnecessary for smooth handwriting input operation by the user. Specifically, for example, when an operation with respect to the input auxiliary UI is not performed for a certain period of time, it is determined that the input auxiliary UI is unnecessary and can be hidden.

なお、上述したブロックB3においてタッチスクリーンディスプレイ12の画面上にユーザの手が接触していないと判定された場合(ブロックB3のNO)、例えば手書き入力操作が終了されたものとして、入力補助UI表示処理は終了される。   When it is determined that the user's hand is not in contact with the screen of the touch screen display 12 in block B3 described above (NO in block B3), for example, the input assist UI display indicates that the handwriting input operation has been completed. Processing is terminated.

次に、上述した入力補助UIの表示について具体的に説明する。ここでは、入力補助UIの第1の表示例及び第2の表示例について説明する。   Next, the display of the input auxiliary UI described above will be specifically described. Here, a first display example and a second display example of the input auxiliary UI will be described.

まず、図15を参照して、入力補助UIの第1の表示例について説明する。図15は、ユーザによる手書き入力操作に応じた1以上のストローク(ここでは、手書き文字列「ABC」)に対応するストロークデータが入力された後に、上述した運筆動作が行われる場合について示している。   First, a first display example of the input auxiliary UI will be described with reference to FIG. FIG. 15 shows a case where the above-described stroke operation is performed after stroke data corresponding to one or more strokes (here, handwritten character string “ABC”) corresponding to a handwriting input operation by the user is input. .

図15に示すように、運筆動作が行われた場合、当該運筆動作が行われる前に手書き入力操作が行われた領域1003から運筆方向に所定距離離れた位置に、入力補助UI1100が表示される。これによれば、ユーザは、領域1003内に手書き文字列「ABC」を書き終えて運筆動作を行った際に、容易に入力補助UI1100に対する操作(タッチ操作等)を行うことができるとともに、次の手書き入力操作(手書き文字列の記載等)を行うことが可能となる。   As shown in FIG. 15, when a stroke operation is performed, the input auxiliary UI 1100 is displayed at a position away from the region 1003 where the handwriting input operation has been performed before the stroke operation is performed by a predetermined distance in the stroke direction. . According to this, when the user finishes writing the handwritten character string “ABC” in the area 1003 and performs the handwriting operation, the user can easily perform an operation (touch operation or the like) on the input auxiliary UI 1100, and Handwriting input operations (such as writing a handwritten character string) can be performed.

なお、この図15に示す入力補助UI1100は、例えば手書き文字列の色彩を変更するという入力補助機能を利用するためのユーザインタフェース(つまり、手書き文字列の色彩を指定するための操作に用いられるユーザインタフェース)である。   The input assistance UI 1100 shown in FIG. 15 is a user interface for using an input assistance function for changing the color of a handwritten character string (ie, a user used for an operation for designating the color of a handwritten character string). Interface).

図15に示す例では、この入力補助UI1100には、例えば「R(赤色)」ボタン1101、「G(緑色)」ボタン1102及び「B(青色)」ボタン1103が設けられている。ユーザは、ペン100を用いて例えば「R」ボタン1101に対するタッチ操作を行うことにより、手書き文字列「ABC」の色彩を当該ボタン1101に対応する色彩(つまり、赤色)に変更することができる。ここでは、「R」ボタン1101について説明したが、他のボタン1102及び1103に対するタッチ操作が行われた場合についても同様である。   In the example illustrated in FIG. 15, the input auxiliary UI 1100 is provided with, for example, an “R (red)” button 1101, a “G (green)” button 1102, and a “B (blue)” button 1103. The user can change the color of the handwritten character string “ABC” to a color corresponding to the button 1101 (that is, red) by performing a touch operation on the “R” button 1101 using the pen 100, for example. Although the “R” button 1101 has been described here, the same applies to a case where a touch operation is performed on the other buttons 1102 and 1103.

なお、入力補助UI1100には、赤色、緑色及び青色に対応するボタン1101〜1103以外のボタンが設けられていてもよい。この入力補助UI1100に設けられる各ボタンの種類(当該ボタンに対応する色彩)及び数等は、ユーザによって適宜変更(設定)することができるものとする。   Note that the input auxiliary UI 1100 may be provided with buttons other than the buttons 1101 to 1103 corresponding to red, green, and blue. It is assumed that the type (color corresponding to the button), the number, and the like of each button provided in the input auxiliary UI 1100 can be appropriately changed (set) by the user.

また、本実施形態における手書きノート(手書き文書)の作成時には、タッチスクリーンディスプレイ12の画面上で手書き文字列が記載される度に、当該画面に対する所定の操作(以下、確定操作と表記)により当該手書き文字列(の入力)を確定するという動作が行われる。この場合、図15に示す入力補助UI1100を介して利用される機能(ここでは、手書き文字列の色彩を指定する機能)は、上記した確定操作により確定されていない、つまり、未確定(編集中)の手書き文字列(つまり、1以上のストローク)に対して適用されるものとする。すなわち、本実施形態においては、未確定のストロークが入力補助UI1100を用いた操作の対象とされる。   In addition, when a handwritten note (handwritten document) is created in the present embodiment, each time a handwritten character string is written on the screen of the touch screen display 12, a predetermined operation (hereinafter referred to as a confirming operation) is performed on the screen. An operation of confirming (input) the handwritten character string is performed. In this case, the function (in this case, the function for designating the color of the handwritten character string) used via the input auxiliary UI 1100 shown in FIG. 15 has not been confirmed by the above-described confirming operation, that is, not confirmed (during editing). ) Handwritten character string (that is, one or more strokes). In other words, in the present embodiment, an undetermined stroke is an operation target using the input auxiliary UI 1100.

次に、図16を参照して、入力補助UIの第2の表示例について説明する。ここでは、本実施形態に係るタブレットコンピュータ10(上で動作する手書きノートアプリケーションプログラム103b)が入力補助機能として上述した手書き入力の候補(以下、推薦手書き文字列と表記)を表示する機能(以下、入力サジェスト機能と表記)を有している場合を想定している。この入力サジェスト機能によれば、手書き入力操作に応じた1以上のストロークに基づいて特定されるストローク集合(例えば、過去に記載された手書き文字列のうち当該1以上のストロークに類似するストロークから構成される手書き文字列)が推薦手書き文字列として表示される。   Next, a second display example of the input auxiliary UI will be described with reference to FIG. Here, the tablet computer 10 according to the present embodiment (the handwritten note application program 103b operating above) displays the above-described handwriting input candidates (hereinafter referred to as recommended handwritten character strings) as input assist functions (hereinafter referred to as recommended handwritten character strings). It is assumed that it has an input suggest function. According to this input suggestion function, a stroke set specified based on one or more strokes corresponding to a handwriting input operation (for example, composed of strokes similar to the one or more strokes among handwritten character strings described in the past) Handwritten character string) is displayed as a recommended handwritten character string.

図16は、このような推薦手書き文字列が表示された後に、上述した運筆動作が行われる場合について示している。   FIG. 16 shows a case where the above-described handwriting operation is performed after such a recommended handwritten character string is displayed.

ここで、図16に示す例では、例えば手書き入力操作によって手書き文字「a」が手書きで記載された場合、当該手書き文字「a」(つまり、1以上のストローク)に基づいて特定される推薦手書き文字列「app」、「apple」及び「air」が表示されている。   Here, in the example illustrated in FIG. 16, for example, when the handwritten character “a” is written by handwriting by a handwriting input operation, the recommended handwriting specified based on the handwritten character “a” (that is, one or more strokes). The character strings “app”, “apple”, and “air” are displayed.

なお、図16では上述した領域1001〜1003については省略されているが、推薦手書き文字列「app」は、例えば領域1003(手書き入力操作が行われる領域)の上側に位置する領域1201(第2領域)に表示される。また、推薦手書き文字列「apple」は、例えば領域1003(に重なる領域1202)に表示される。更に、推薦手書き文字列「air」は、例えば領域1003の下側に位置する領域1203(第3領域)に表示される。なお、表示される推薦手書き文字列のうち、例えば最も優先度の高い推薦手書き文字列が領域1202に表示されるものとする。この優先度は、例えば手書き入力操作によって手書きで記載された手書き文字列と一致する度合いや推薦手書き文字列として過去に表示された際にユーザによって選択された回数等に基づいて算出することが可能であるが、他の手法により算出されても構わない。また、図16に示す例では領域1201〜1203の各々に推薦手書き文字列が表示されるものとして説明したが、推薦手書き文字列は、当該領域1201〜1203の少なくとも1つの領域に表示されればよい。   In FIG. 16, the above-described areas 1001 to 1003 are omitted, but the recommended handwritten character string “app” is, for example, an area 1201 (second area) located above the area 1003 (area where the handwriting input operation is performed). Area). Also, the recommended handwritten character string “apple” is displayed in, for example, the area 1003 (overlapping area 1202). Further, the recommended handwritten character string “air” is displayed in, for example, a region 1203 (third region) located below the region 1003. Of the recommended handwritten character strings to be displayed, for example, the recommended handwritten character string having the highest priority is displayed in the area 1202. This priority can be calculated based on, for example, the degree of coincidence with a handwritten character string written by handwriting by a handwriting input operation, the number of times selected by the user when displayed as a recommended handwritten character string in the past, and the like. However, it may be calculated by other methods. In the example illustrated in FIG. 16, the recommended handwritten character string is displayed in each of the areas 1201 to 1203, but the recommended handwritten character string is displayed in at least one of the areas 1201 to 1203. Good.

このように推薦手書き文字列が表示された場合、ユーザは、当該推薦手書き文字列のうちの1つを(手書き入力領域500に)表示すべき文字列として選択することができる。すなわち、推薦手書き文字列のうちの1つがユーザによって選択される場合、筆跡描画部301Bは、当該推薦手書き文字列を手書き入力領域500に表示(描画)する。   When the recommended handwritten character string is displayed in this way, the user can select one of the recommended handwritten character strings as a character string to be displayed (in the handwriting input area 500). That is, when one of the recommended handwritten character strings is selected by the user, the handwriting drawing unit 301 </ b> B displays (draws) the recommended handwritten character string in the handwritten input area 500.

図16に示す例では、運筆動作が行われた場合、カーソル1204を合わせることによって推薦手書き文字列のうちの1つを選択(指定)することができる入力補助UI1205が表示される。なお、この入力補助UI1205は、例えば領域1202に表示されている推薦手書き文字列「apple」が選択された場合に、次の手書き入力操作が行われると推定される位置の近傍(つまり、当該推薦手書き文字列の後の位置)に表示される。   In the example illustrated in FIG. 16, when a handwriting action is performed, an input auxiliary UI 1205 that can select (specify) one of recommended handwritten character strings by moving the cursor 1204 is displayed. For example, when the recommended handwritten character string “apple” displayed in the area 1202 is selected, the input auxiliary UI 1205 is in the vicinity of the position where the next handwriting input operation is estimated to be performed (that is, the recommended handwritten character string “apple”). Displayed after the handwritten character string).

この入力補助UI1205には、例えば上記したカーソル1204を上に移動させるための「上」ボタン1205a、当該カーソル1204を下に移動させるための「下」ボタン1205b及びカーソル1204が合わせられている推薦手書き文字列を指定するための「OK」ボタン1205cが設けられている。   In this input auxiliary UI 1205, for example, an “up” button 1205 a for moving the cursor 1204 described above, a “down” button 1205 b for moving the cursor 1204 down, and a recommended handwriting combined with the cursor 1204. An “OK” button 1205c for designating a character string is provided.

これによれば、運筆動作後に入力補助UI1205に対する操作(つまり、推薦手書き文字列を選択する操作)を容易に行うことができるとともに、容易に次の手書き入力操作を行うことが可能となる。   According to this, it is possible to easily perform an operation (that is, an operation of selecting a recommended handwritten character string) on the input auxiliary UI 1205 after the handwriting operation, and it is possible to easily perform the next handwriting input operation.

なお、図15及び図16において説明した入力補助UI1100及び1205は一例であり、本実施形態における入力補助UIは、例えば手書き文字列の太さを変更する、当該手書き文字列を拡大または縮小する、当該手書き文字列を削除する、当該手書き文字列を検索キーとして指定する、または当該手書き文字列に対して文字認識処理を実行する等の機能、あるいはこれらを組み合わせた機能等を利用するためのものであってもよい。すなわち、本実施形態における入力補助UIは、ユーザによる手書き入力操作を補助する機能を利用するためのものであればよい。   The input assistance UIs 1100 and 1205 described with reference to FIGS. 15 and 16 are examples, and the input assistance UI in the present embodiment changes, for example, the thickness of the handwritten character string, or enlarges or reduces the handwritten character string. For using a function such as deleting the handwritten character string, specifying the handwritten character string as a search key, or executing a character recognition process on the handwritten character string, or a function combining these functions It may be. That is, the input assistance UI in the present embodiment may be any one that uses a function that assists the user's handwriting input operation.

上記したように本実施形態においては、タッチスクリーンディスプレイ12の画面上の接触点(第1接触点)に手が接触した状態で手書きで入力される1以上のストローク(第1ストローク)に対応するストロークデータ(第1ストロークデータ)を入力し、手が当該接触点から離れた後、当該1以上のストロークが表示される領域(第1領域)から運筆方向に所定距離(第1距離)離れた位置に、入力補助UI(入力するストロークを指定するための操作に用いられるユーザインタフェース)を表示する。具体的には、画面上の接触点(第1接触点)に手が接触した状態で1以上のストローク(第1ストローク)が入力された後に運筆動作を行い、当該画面上の異なる接触点(第2接触点)に手が接触した状態で1以上のストローク(第2ストローク)が入力される場合、入力補助UIは、当該運筆動作前に1以上のストロークが表示される領域と当該運筆動作後の接触点との間の位置に表示される。   As described above, in the present embodiment, one or more strokes (first strokes) input by handwriting in a state where a hand is in contact with a contact point (first contact point) on the screen of the touch screen display 12 are supported. After inputting stroke data (first stroke data) and the hand leaving the contact point, a predetermined distance (first distance) is left in the stroke direction from the area (first area) where the one or more strokes are displayed. An input auxiliary UI (a user interface used for an operation for designating an input stroke) is displayed at the position. Specifically, a hand movement operation is performed after one or more strokes (first strokes) are input with a hand touching a contact point (first contact point) on the screen, and different contact points ( When one or more strokes (second stroke) are input in a state where the hand is in contact with the second contact point), the input auxiliary UI displays the region where the one or more strokes are displayed before the stroke operation and the stroke operation. It is displayed at a position between the subsequent contact points.

本実施形態においては、このような構成により、手書き入力操作を阻害または中断しない位置(つまり、運筆動作後の次の手書き入力操作を行う位置の近傍)に入力補助UIが表示されるため、ユーザは、当該入力補助UIに対する操作を容易に行うことが可能となり、手書き文書(手書きノート)を効率的に作成することが可能となる。   In the present embodiment, the input auxiliary UI is displayed at a position where the handwriting input operation is not hindered or interrupted (that is, in the vicinity of the position where the next handwriting input operation is performed after the handwriting operation) according to such a configuration. Can easily operate the input auxiliary UI, and can efficiently create a handwritten document (handwritten note).

また、本実施形態においては、1以上のストロークが手書きで記載される領域1202(第1領域)、当該領域の上側に位置する領域1201(第2領域)及び当該領域の下側に位置する領域1203(第3領域)の少なくとも1つの領域に推薦手書き文字列(手書き入力の候補)が表示され、当該推薦手書き文字列を指定するための操作に用いられる入力補助UI1205が表示される。本実施形態においては、このような構成により、推薦手書き文字列を表示(提示)する機能(入力サジェスト機能)を有している場合に、当該推薦手書き文字列を指定する操作(図16に示す入力補助UI1205に対する操作)を容易に行うことが可能な入力補助UIを表示することが可能となる。   In the present embodiment, an area 1202 (first area) in which one or more strokes are written by hand, an area 1201 (second area) located above the area, and an area located below the area A recommended handwritten character string (candidate for handwriting input) is displayed in at least one area of 1203 (third area), and an input auxiliary UI 1205 used for an operation for designating the recommended handwritten character string is displayed. In this embodiment, with such a configuration, when a function (display suggestion function) for displaying (presenting) a recommended handwritten character string is provided, an operation for specifying the recommended handwritten character string (shown in FIG. 16). It is possible to display an input auxiliary UI that can easily perform an operation on the input auxiliary UI 1205.

更に、本実施形態においては、タッチスクリーンディスプレイ12の画面上にユーザの手が接触した状態が継続している間は入力補助UIを非表示とすることにより、例えば当該画面上において手書き入力操作が継続して行われている場合に、ユーザが意図しない当該入力補助UIに対する操作が行われることを防止することが可能となる。   Furthermore, in this embodiment, while the state in which the user's hand is in contact with the screen of the touch screen display 12 continues, the input auxiliary UI is not displayed, so that, for example, a handwriting input operation is performed on the screen. When the operation is continuously performed, it is possible to prevent an operation on the input auxiliary UI unintended by the user from being performed.

また、本実施形態においては、未確定のストロークを入力補助UIを用いた操作の対象とする(つまり、入力補助UIを介して利用される入力補助機能は未確定のストロークに対して適用される)ことにより、ユーザが意図しない範囲のストローク(手書き文字列)に対してまでも当該入力補助機能が適用される(つまり、当該入力補助機能による効果が生じる)ことを防止することができる。   Further, in the present embodiment, an undetermined stroke is set as an operation target using the input auxiliary UI (that is, the input auxiliary function used via the input auxiliary UI is applied to the undetermined stroke. Thus, it is possible to prevent the input assist function from being applied even to a stroke (handwritten character string) in a range not intended by the user (that is, the effect of the input assist function is generated).

なお、本実施形態においては図13及び図14において説明した第1の決定処理が実行されることによって決定された位置に入力補助UIが表示される(つまり、運筆動作後に入力補助UIが表示される)ものとして説明したが、当該ユーザの手が再度画面上に接触する前(つまり、次の手書き入力位置に手を移動している最中)に、入力補助UIが表示されるようにしてもよい。この場合には、次にユーザが手を接触させる画面上の位置を予測して入力補助UIの表示位置を決定する。   In the present embodiment, the input auxiliary UI is displayed at the position determined by executing the first determination process described in FIG. 13 and FIG. 14 (that is, the input auxiliary UI is displayed after the handwriting operation). The input auxiliary UI is displayed before the user's hand touches the screen again (that is, while the hand is moving to the next handwriting input position). Also good. In this case, the display position of the input auxiliary UI is determined by predicting the position on the screen where the user next touches the hand.

以下、図17を参照して、この場合における入力補助UIの表示位置の決定処理(以下、第2の決定処理と表記)について説明する。ここでは、上述した図12及び図14と同様の部分には同一参照符号を付して、その詳しい説明を省略する。   Hereinafter, with reference to FIG. 17, a process for determining the display position of the input auxiliary UI in this case (hereinafter referred to as a second determination process) will be described. Here, the same parts as those in FIGS. 12 and 14 described above are denoted by the same reference numerals, and detailed description thereof is omitted.

この第2決定処理の場合、UI表示処理部301Cは、例えば領域1002(及び領域1003)の最左端に位置する点のX座標(以下、X0座標と表記)を取得する。   In the case of the second determination process, the UI display processing unit 301C acquires, for example, the X coordinate (hereinafter referred to as the X0 coordinate) of a point located at the leftmost end of the area 1002 (and the area 1003).

また、UI表示処理部301Cは、上述した図14において説明したX1座標を取得する。   In addition, the UI display processing unit 301C acquires the X1 coordinates described in FIG.

なお、領域1002及び領域1003(X0座標及びX1座標)は、ブロックB1において入力されたストロークデータ(時系列座標)及びタッチパネル12Bによって検出される第1接触点1001aの位置(座標)等から算出されるものとする。   Note that the area 1002 and the area 1003 (X0 coordinate and X1 coordinate) are calculated from the stroke data (time series coordinates) input in the block B1, the position (coordinates) of the first contact point 1001a detected by the touch panel 12B, and the like. Shall.

ここで、UI表示処理部301Cは、図17に示すように、取得されたX1座標とX0座標との差分dを算出し、当該算出された差分dをX1座標に加算した値(以下、X2´座標と表記)を算出する。   Here, as shown in FIG. 17, the UI display processing unit 301C calculates a difference d between the acquired X1 coordinate and the X0 coordinate, and adds the calculated difference d to the X1 coordinate (hereinafter referred to as X2). ('Coordinate and notation) are calculated.

次に、UI表示処理部301Cは、上述した図14において説明したY1座標及びY2座標を取得する。   Next, the UI display processing unit 301C acquires the Y1 coordinate and the Y2 coordinate described with reference to FIG.

これにより、UI表示処理部301Cは、図17に示すようにX1座標、X2´座標、Y1座標及びY2座標に基づいて領域1006を算出する。   Accordingly, the UI display processing unit 301C calculates the region 1006 based on the X1, X2 ′, Y1, and Y2 coordinates as shown in FIG.

この場合、UI表示処理部301Cは、算出された領域1006(内の位置)を、入力補助UIを表示する位置として決定する。   In this case, the UI display processing unit 301C determines the calculated area 1006 (inside position) as a position for displaying the input auxiliary UI.

すなわち、第2の決定処理においては、上記したように領域1002及び領域1003に基づいて次の手書き入力操作が行われると推測される領域1006を予測し、当該領域1006内の位置を入力補助UIの表示位置として決定する。   That is, in the second determination process, as described above, the region 1006 where the next handwriting input operation is estimated to be performed is predicted based on the region 1002 and the region 1003, and the position in the region 1006 is set as the input assist UI. The display position is determined.

この第2の決定処理によれば、ユーザの運筆動作によりユーザの手が画面上に置かれる(接触する)前に入力補助UIを表示することが可能となるため、運筆のリズムをソフトウェア的に意図的に作り出すことが可能となる。   According to the second determination process, it is possible to display the input auxiliary UI before the user's hand is placed on (contacted with) the screen by the user's handwriting operation. It can be created intentionally.

しかしながら、手書き文字列を横書きで記載する場合を想定すると、第2の決定処理によって決定された位置に入力補助UIを表示する場合、運筆動作の最中(つまり、ユーザが手を移動している最中)の当該ユーザの手の下に入力補助UIが表示されることになる。つまり、ユーザの運筆動作が完了するまで(つまり、ユーザが手を画面上に置くまで)の間に、ユーザが意図しないタッチ操作(つまり、誤操作)が行われる可能性がある。   However, assuming that the handwritten character string is written in horizontal writing, when the input auxiliary UI is displayed at the position determined by the second determination process, the hand movement is in progress (that is, the user is moving the hand). In the middle), the input auxiliary UI is displayed under the user's hand. That is, there is a possibility that a touch operation unintended by the user (that is, an erroneous operation) is performed until the user's stroke operation is completed (that is, until the user places his / her hand on the screen).

これに対して、上述した第1の決定処理によれば、ユーザの運筆動作後(つまり、ユーザの手が画面上に置かれた後)に入力補助UIが表示されるため、第2の決定処理が実行された場合と比較して誤操作が行われる可能性は低い。   On the other hand, according to the first determination process described above, the input assist UI is displayed after the user's stroke operation (that is, after the user's hand is placed on the screen). There is a low possibility that an erroneous operation is performed as compared with the case where the process is executed.

上記した第1または第2の決定処理のいずれの処理が実行されるか(つまり、ユーザの手が画面上に置かれた後に入力補助UIが表示されるか、当該ユーザの手が画面上に置かれる前に入力補助UIが表示されるか)はユースケースによって決定される。   Whether the first or second determination process described above is executed (that is, whether the input auxiliary UI is displayed after the user's hand is placed on the screen, or the user's hand is on the screen) Whether the auxiliary input UI is displayed before being placed) is determined by the use case.

なお、本実施形態においてはユーザがペン100を使用して手書き文字列を横書きで記載する場合について主に説明したが、本実施形態は、当該手書き文字列を縦書きで記載する場合にも適用可能である。ここで、手書き文字列を縦書きで記載する場合の運筆方向は、当該手書き文字列を横書きで記載する場合と異なり、ユーザから見て上から下方向である。また、運筆方向やユーザの手書き習慣から当該運筆方向に最適化されたペン100の持ち方及び動かし方によって、手書き入力可能領域は、横書きの場合における領域1002と異なる場合がある。更に、手書き文字列を縦書きで記載する場合における容易に手書き入力操作を行うことが可能な領域の形状も、上述した図12に示す領域1003とは異なり、縦長の楕円形状となる。このように、手書き文字列を横書きで記載する場合と縦書きで記載する場合とでは上記したように運筆方向等に差異があるが、手書き文字列を縦書きで記載する場合であっても、図13に示すような処理が実行されることによってユーザによる手書き入力操作が行われる領域から運筆方向に所定距離離れた位置に入力補助UIを表示することが可能である。これにより、手書き文字列を縦書きで記載する場合でも上述した手書き文字列を横書きで記載する場合と同様の効果を実現することができる。   In the present embodiment, the case where the user writes the handwritten character string in horizontal writing using the pen 100 has been mainly described. However, the present embodiment is also applied to the case where the handwritten character string is written in vertical writing. Is possible. Here, the handwriting direction when the handwritten character string is written vertically is different from the case where the handwritten character string is written horizontally, as viewed from the top. In addition, the handwriting input available area may be different from the area 1002 in the horizontal writing depending on how to hold and move the pen 100 that is optimized in the writing direction and the handwriting habit of the user. Furthermore, unlike the region 1003 shown in FIG. 12 described above, the shape of the region where the handwriting input operation can be easily performed in the case where the handwritten character string is written vertically is also a vertically long elliptical shape. In this way, there is a difference in the direction of stroke as described above between the case where the handwritten character string is written in horizontal writing and the case where the handwritten character string is written in vertical writing, but even when the handwritten character string is written in vertical writing, By executing the processing as shown in FIG. 13, it is possible to display the input auxiliary UI at a position away from the region where the user performs a handwriting input operation in the stroke direction. Thereby, even when a handwritten character string is described in vertical writing, the same effect as in the case of writing the above-described handwritten character string in horizontal writing can be realized.

なお、本実施形態の処理はコンピュータプログラムによって実現することができるため、このコンピュータプログラムを格納したコンピュータ読み取り可能な記憶媒体を通じてこのコンピュータプログラムをコンピュータにインストールして実行するだけで、本実施形態と同様の効果を容易に実現することができる。   Since the processing of the present embodiment can be realized by a computer program, the computer program is installed and executed on a computer through a computer-readable storage medium that stores the computer program, as in the present embodiment. The effect of can be easily realized.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the spirit of the invention. These embodiments and their modifications are included in the scope and gist of the invention, and are also included in the invention described in the claims and the equivalents thereof.

10…タブレットコンピュータ(電子機器)、11…本体、12…タッチスクリーンディスプレイ、12A…LCD、12B…タッチパネル、12C…デジタイザ、100…ペン、101…CPU、102…不揮発性メモリ、103…主メモリ、103a…オペレーティングシステム、103b…手書きノートアプリケーションプログラム、104…BIOS−ROM、105…システムコントローラ、106…グラフィクスコントローラ、107…無線通信デバイス、108…EC、301…表示処理部、301A…手書きデータ入力部、301B…筆跡描画部、301C…UI表示処理部、302…時系列情報生成部、303…編集処理部、304…ページ保存処理部、305…ページ取得処理部、401…作業メモリ、402…記憶媒体。   DESCRIPTION OF SYMBOLS 10 ... Tablet computer (electronic device), 11 ... Main body, 12 ... Touch screen display, 12A ... LCD, 12B ... Touch panel, 12C ... Digitizer, 100 ... Pen, 101 ... CPU, 102 ... Non-volatile memory, 103 ... Main memory, DESCRIPTION OF SYMBOLS 103a ... Operating system, 103b ... Handwritten note application program, 104 ... BIOS-ROM, 105 ... System controller, 106 ... Graphics controller, 107 ... Wireless communication device, 108 ... EC, 301 ... Display processing part, 301A ... Handwritten data input part , 301B: handwriting drawing unit, 301C: UI display processing unit, 302 ... time-series information generation unit, 303 ... editing processing unit, 304 ... page storage processing unit, 305 ... page acquisition processing unit, 401 ... working memory, 402 ... storage Medium .

Claims (15)

画面上の第1接触点に手が接触した状態で手書きで入力される1以上の第1ストロークに対応する第1ストロークデータを入力することと、
手が前記第1接触点から離れた後、前記1以上の第1ストロークが表示される第1領域から運筆方向に第1距離離れた位置に、入力するストロークを指定するための操作に用いられるユーザインタフェースを表示することと
を具備する、方法。
Inputting first stroke data corresponding to one or more first strokes input by handwriting in a state where the hand is in contact with the first contact point on the screen;
After the hand leaves the first contact point, it is used for an operation for designating an input stroke at a position away from the first area where the one or more first strokes are displayed by a first distance in the stroke direction. Displaying a user interface.
画面上の第1接触点に手が接触した状態で1以上の第1ストロークが入力された後に前記画面上の第2接触点に手が接触した状態で1以上の第2ストロークが入力される場合、前記ユーザインタフェースは、前記第1領域と前記第2接触点との間の位置に表示される請求項1記載の方法。   After one or more first strokes are input with the hand touching the first contact point on the screen, one or more second strokes are input with the hand touching the second contact point on the screen. 2. The method of claim 1, wherein the user interface is displayed at a location between the first region and the second contact point. 前記1以上のストロークに基づいて特定されるストローク集合を、手書き入力の候補として表示することを更に具備し、
前記手書き入力の候補は、前記第1領域、当該第1領域の上側に位置する第2領域及び当該第1領域の下側に位置する第3領域の少なくとも1つの領域に表示され、
前記ユーザインタフェースは、前記手書き入力の候補を指定するための操作に用いられる
請求項1記載の方法。
Further comprising displaying a stroke set identified based on the one or more strokes as a candidate for handwriting input,
The handwriting input candidates are displayed in at least one of the first region, the second region located above the first region, and the third region located below the first region,
The method according to claim 1, wherein the user interface is used for an operation for designating a candidate for the handwriting input.
前記ユーザインタフェースは、画面上の第1接触点に手が接触した状態が継続している間は非表示である請求項1記載の方法。   The method according to claim 1, wherein the user interface is hidden while a state in which a hand touches the first contact point on the screen continues. 未確定のストロークを前記ユーザインタフェースを用いた操作の対象とする請求項1記載の方法。   The method according to claim 1, wherein an undetermined stroke is a target of an operation using the user interface. 画面上の第1接触点に手が接触した状態で手書きで入力される1以上の第1ストロークに対応する第1ストロークデータを入力する入力手段と、
手が前記第1接触点から離れた後、前記1以上の第1ストロークが表示される第1領域から運筆方向に第1距離離れた位置に、入力するストロークを指定するための操作に用いられるユーザインタフェースを表示する表示処理手段と
を具備する、電子機器。
Input means for inputting first stroke data corresponding to one or more first strokes input by handwriting in a state where the hand is in contact with the first contact point on the screen;
After the hand leaves the first contact point, it is used for an operation for designating an input stroke at a position away from the first area where the one or more first strokes are displayed by a first distance in the stroke direction. An electronic device comprising display processing means for displaying a user interface.
画面上の第1接触点に手が接触した状態で1以上の第1ストロークが入力された後に前記画面上の第2接触点に手が接触した状態で1以上の第2ストロークが入力される場合、前記ユーザインタフェースは、前記第1領域と前記第2接触点との間の位置に表示される請求項6記載の電子機器。   After one or more first strokes are input with the hand touching the first contact point on the screen, one or more second strokes are input with the hand touching the second contact point on the screen. The electronic device according to claim 6, wherein the user interface is displayed at a position between the first region and the second contact point. 前記表示処理手段は、前記1以上のストロークに基づいて特定されるストローク集合を、手書き入力の候補として表示し、
前記手書き入力候補は、前記第1領域、当該第1領域の上側に位置する第2領域及び当該第1領域の下側に位置する第3領域の少なくとも1つの領域に表示され、
前記ユーザインタフェースは、前記手書き入力の候補を指定するための操作に用いられる
請求項6記載の電子機器。
The display processing means displays a stroke set specified based on the one or more strokes as a candidate for handwriting input,
The handwriting input candidate is displayed in at least one area of the first area, the second area located above the first area, and the third area located below the first area,
The electronic device according to claim 6, wherein the user interface is used for an operation for designating a candidate for the handwriting input.
前記ユーザインタフェースは、画面上の第1接触点に手が接触した状態が継続している間は非表示である請求項6記載の電子機器。   The electronic device according to claim 6, wherein the user interface is not displayed while a state in which a hand contacts the first contact point on the screen is continued. 未確定のストロークを前記ユーザインタフェースを用いた操作の対象とする請求項6記載の電子機器。   The electronic apparatus according to claim 6, wherein an undetermined stroke is an operation target using the user interface. コンピュータにより実行されるプログラムであって、
前記コンピュータに、
画面上の第1接触点に手が接触した状態で手書きで入力される1以上の第1ストロークに対応する第1ストロークデータを入力することと、
手が前記第1接触点から離れた後、前記1以上の第1ストロークが表示される第1領域から運筆方向に第1距離離れた位置に、入力するストロークを指定するための操作に用いられるユーザインタフェースを表示することと
を実行させるためのプログラム。
A program executed by a computer,
In the computer,
Inputting first stroke data corresponding to one or more first strokes input by handwriting in a state where the hand is in contact with the first contact point on the screen;
After the hand leaves the first contact point, it is used for an operation for designating an input stroke at a position away from the first area where the one or more first strokes are displayed by a first distance in the stroke direction. A program for displaying and executing the user interface.
画面上の第1接触点に手が接触した状態で1以上の第1ストロークが入力された後に前記画面上の第2接触点に手が接触した状態で1以上の第2ストロークが入力される場合、前記ユーザインタフェースは、前記第1領域と前記第2接触点との間の位置に表示される請求項11記載のプログラム。   After one or more first strokes are input with the hand touching the first contact point on the screen, one or more second strokes are input with the hand touching the second contact point on the screen. In this case, the user interface is displayed at a position between the first region and the second contact point. 前記コンピュータに、前記1以上のストロークに基づいて特定されるストローク集合を、手書き入力の候補として表示することを更に実行させ、
前記手書き入力の候補は、前記第1領域、当該第1領域の上側に位置する第2領域、及び当該第1領域の下側に位置する第3領域の少なくとも1つの領域に表示され、
前記ユーザインタフェースは、前記手書き入力の候補を指定するための操作に用いられる
請求項11記載のプログラム。
Causing the computer to further display a stroke set identified based on the one or more strokes as a candidate for handwriting input;
The handwriting input candidates are displayed in at least one of the first region, the second region located above the first region, and the third region located below the first region,
The program according to claim 11, wherein the user interface is used for an operation for designating a candidate for the handwriting input.
前記ユーザインタフェースは、画面上の第1接触点に手が接触した状態が継続している間は非表示である請求項11記載のプログラム。   The program according to claim 11, wherein the user interface is not displayed while a state in which a hand contacts the first contact point on the screen continues. 未確定のストロークを前記ユーザインタフェースを用いた操作の対象とする請求項11記載のプログラム。   The program according to claim 11, wherein an undetermined stroke is an operation target using the user interface.
JP2016549855A 2014-09-26 2014-09-26 Electronic device, method and program Active JP6251408B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/075602 WO2016046953A1 (en) 2014-09-26 2014-09-26 Electronic device, method, and program

Publications (2)

Publication Number Publication Date
JPWO2016046953A1 true JPWO2016046953A1 (en) 2017-07-27
JP6251408B2 JP6251408B2 (en) 2017-12-20

Family

ID=55580512

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016549855A Active JP6251408B2 (en) 2014-09-26 2014-09-26 Electronic device, method and program

Country Status (2)

Country Link
JP (1) JP6251408B2 (en)
WO (1) WO2016046953A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320755A (en) * 1995-05-25 1996-12-03 Canon Inc Information processor
JP2000123114A (en) * 1998-10-15 2000-04-28 Casio Comput Co Ltd Handwritten character input device and storage medium
JP2005251222A (en) * 2005-04-01 2005-09-15 Sharp Corp Handwritten input device, handwritten input program, and program recording medium
JP2014016943A (en) * 2012-07-11 2014-01-30 Sharp Corp Information processor, display method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08320755A (en) * 1995-05-25 1996-12-03 Canon Inc Information processor
JP2000123114A (en) * 1998-10-15 2000-04-28 Casio Comput Co Ltd Handwritten character input device and storage medium
JP2005251222A (en) * 2005-04-01 2005-09-15 Sharp Corp Handwritten input device, handwritten input program, and program recording medium
JP2014016943A (en) * 2012-07-11 2014-01-30 Sharp Corp Information processor, display method, and program

Also Published As

Publication number Publication date
WO2016046953A1 (en) 2016-03-31
JP6251408B2 (en) 2017-12-20

Similar Documents

Publication Publication Date Title
JP5813780B2 (en) Electronic device, method and program
JP6180888B2 (en) Electronic device, method and program
JP6092418B2 (en) Electronic device, method and program
JP5728592B1 (en) Electronic device and handwriting input method
JP5989903B2 (en) Electronic device, method and program
JP6092462B2 (en) Electronic device, method and program
JP5925957B2 (en) Electronic device and handwritten data processing method
JP6426417B2 (en) Electronic device, method and program
JP5395927B2 (en) Electronic device and handwritten document search method
JP5634617B1 (en) Electronic device and processing method
JP2016085512A (en) Electronic equipment, method, and program
JP6100013B2 (en) Electronic device and handwritten document processing method
US20150098653A1 (en) Method, electronic device and storage medium
JP6430198B2 (en) Electronic device, method and program
US20150149894A1 (en) Electronic device, method and storage medium
JP5749245B2 (en) Electronic device, display method, and display program
JP6251408B2 (en) Electronic device, method and program
JP6202997B2 (en) Electronic device, method and program
JP6062487B2 (en) Electronic device, method and program
JP6315996B2 (en) Electronic device, method and program
JP2015109116A (en) Electronic apparatus, display method and display program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170303

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171124

R150 Certificate of patent or registration of utility model

Ref document number: 6251408

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350