JP2015194850A - Information processing unit, information processing program, and information processing method - Google Patents

Information processing unit, information processing program, and information processing method Download PDF

Info

Publication number
JP2015194850A
JP2015194850A JP2014071931A JP2014071931A JP2015194850A JP 2015194850 A JP2015194850 A JP 2015194850A JP 2014071931 A JP2014071931 A JP 2014071931A JP 2014071931 A JP2014071931 A JP 2014071931A JP 2015194850 A JP2015194850 A JP 2015194850A
Authority
JP
Japan
Prior art keywords
handwritten
character
information processing
display surface
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014071931A
Other languages
Japanese (ja)
Other versions
JP6276630B2 (en
Inventor
ゆかり 西村
Yukari Nishimura
ゆかり 西村
小川 孝行
Takayuki Ogawa
孝行 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014071931A priority Critical patent/JP6276630B2/en
Publication of JP2015194850A publication Critical patent/JP2015194850A/en
Application granted granted Critical
Publication of JP6276630B2 publication Critical patent/JP6276630B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To impart a file name through an easy operation.SOLUTION: An information processing unit (10) includes a CPU (12), and a drawing controller 18 draws (displays) characters that a user handwrites using a touch panel (16) on a display screen of a display (20). The CPU recognizes the handwritten characters in a frame (106), and uses the recognized handwritten characters as a file name to be imparted when image data on a handwriting image including the handwritten characters is saved.

Description

この発明は、情報処理装置、情報処理プログラムおよび情報処理方法に関し、特にたとえば、タッチパネルを用いて手書きされた文字をディスプレイの表示面に描画し、表示面に描画された手書きの文字を含む画像に対応する画像データを保存する、情報処理装置、情報処理プログラムおよび情報処理方法に関する。   The present invention relates to an information processing apparatus, an information processing program, and an information processing method, and in particular, for example, an image including handwritten characters drawn on a display surface by drawing characters handwritten using a touch panel. The present invention relates to an information processing apparatus, an information processing program, and an information processing method for storing corresponding image data.

背景技術の一例である電子黒板やタブレット端末では、タッチパネルのような入力手段を用いて文字、図形または記号等を手書きし、手書きした文字、図形または記号等を含む画像に対応する画像データを保存する場合には、ソフトウェアキーボードを表示して、ファイル名を入力する。このため、使い勝手が悪い。   In an electronic blackboard or tablet terminal, which is an example of background technology, a character, figure, symbol, or the like is handwritten using an input means such as a touch panel, and image data corresponding to an image including the handwritten character, figure, symbol, or the like is saved. If so, display the software keyboard and enter the file name. For this reason, it is inconvenient.

これに対して、特許文献1の画像読取装置では、読み取り対象となる原稿のファイル名領域にファイル名及び保存場所が記入され、その原稿がセットされた後、読み取りが開始され、画像データが読み取られると同時に、ファイル名領域に手書きされたファイル名及び保存場所が判読され、そして、読み取られた画像データに、判読されたファイル名及び保存場所のうちそのファイル名が付されてホストコンピュータに送出され、ホストコンピュータのハードディスク等の保存手段の、判読された保存場所が指定されてその指定保存場所に画像データがそのファイル名で保存される。   On the other hand, in the image reading apparatus of Patent Document 1, a file name and a storage location are entered in a file name area of a document to be read, and after the document is set, reading is started and image data is read. At the same time, the handwritten file name and storage location are read in the file name area, and the read file name and storage location are attached to the read image data and sent to the host computer. Then, the read storage location of the storage means such as the hard disk of the host computer is specified, and the image data is stored with the file name in the specified storage location.

特開2002−74321号公報[G06T 1/00, G06K 9/00]JP 2002-74321 A [G06T 1/00, G06K 9/00]

しかしながら、特許文献1の技術は、原稿をスキャナで読み取る画像読取装置であり、タッチパネルを用いて手書きされた文字、図形または記号等を含む画像に対応する画像データを保存する情報処理装置に適用するのは困難である。仮に適用できたとしても、特許文献1では、原稿の内容に直接関係の無いファイル名および保存場所を記入する必要があるため、使い勝手が悪い。   However, the technique of Patent Document 1 is an image reading apparatus that reads an original with a scanner, and is applied to an information processing apparatus that stores image data corresponding to an image including characters, figures, symbols, and the like handwritten using a touch panel. It is difficult. Even if it can be applied, in Patent Document 1, it is necessary to enter a file name and a storage location that are not directly related to the contents of the document, which is inconvenient.

それゆえに、この発明の主たる目的は、新規な、情報処理装置、情報処理プログラムおよび情報処理方法を提供することである。   Therefore, a main object of the present invention is to provide a novel information processing apparatus, information processing program, and information processing method.

この発明の他の目的は、簡単にファイル名を付すことができる、情報処理装置、情報処理プログラムおよび情報処理方法を提供することである。   Another object of the present invention is to provide an information processing apparatus, an information processing program, and an information processing method capable of easily assigning a file name.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、本発明の理解を助けるために後述する実施の形態との対応関係を示したものであって、本発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate correspondence relationships with embodiments described later to help understanding of the present invention, and do not limit the present invention in any way.

第1の発明は、入力手段を用いて手書きされた文字を含む手書き画像を表示手段の表示面に描画し、表示面に描画された手書き画像に対応する画像データを保存する情報処理装置であって、入力手段により指示された表示面上の位置の座標を取得する座標取得手段、座標取得手段によって取得された座標に基づいて、表示面に描画された手書き文字の全部または一部を所定のタイミングで文字認識する文字認識手段、および文字認識手段の認識結果に対応する文字ないし文字列を用いて画像データのファイル名を作成するファイル名作成手段を備える。   A first invention is an information processing apparatus that draws a handwritten image including characters handwritten using an input unit on a display surface of a display unit and stores image data corresponding to the handwritten image drawn on the display surface. The coordinate acquisition means for acquiring the coordinates of the position on the display surface instructed by the input means, based on the coordinates acquired by the coordinate acquisition means, all or part of the handwritten characters drawn on the display surface Character recognition means for recognizing characters at timing, and file name creation means for creating a file name of image data using characters or character strings corresponding to the recognition results of the character recognition means.

第1の発明では、情報処理装置(10)は、入力手段(16)を用いて手書きされた文字、図形、記号などを含む手書きの画像(手書き画像)を表示手段(20)の表示面に描画し、表示面に描画された手書き画像に対応する画像データを保存する。この情報処理装置では、たとえばCPU(12)がメモリ(14)に記憶されたプログラム(52−62)を実行することにより、情報処理装置のコンピュータを、座標取得手段(S33,S207)、文字認識手段(S39,S39a)およびファイル名作成手段(S63)として機能させる。   In the first invention, the information processing apparatus (10) displays, on the display surface of the display means (20), a handwritten image (handwritten image) including characters, figures, symbols and the like handwritten using the input means (16). Draw and save image data corresponding to the handwritten image drawn on the display surface. In this information processing apparatus, for example, the CPU (12) executes the program (52-62) stored in the memory (14), thereby allowing the computer of the information processing apparatus to operate as the coordinate acquisition means (S33, S207), character recognition. It functions as means (S39, S39a) and file name creation means (S63).

座標取得手段は、入力手段により指示された表示面上の位置の座標を取得する。文字認識手段は、座標取得手段によって取得された座標に基づいて、表示面に描画された手書き文字の全部または一部を所定のタイミングで文字認識する。そして、ファイル名作成手段は、文字認識手段の認識結果に対応する文字ないし文字列を画像データのファイル名に設定する。   The coordinate acquisition unit acquires the coordinates of the position on the display surface designated by the input unit. The character recognition means recognizes all or part of the handwritten characters drawn on the display surface at a predetermined timing based on the coordinates acquired by the coordinate acquisition means. Then, the file name creation means sets a character or a character string corresponding to the recognition result of the character recognition means as the file name of the image data.

第1の発明によれば、ユーザが手書きした文字が所定のタイミングで文字認識されて、その手書き文字を含む手書き画像に対応する画像データを保存する際のファイル名に用いられるので、簡単にファイル名を付すことができる。   According to the first invention, a character handwritten by a user is recognized at a predetermined timing and used as a file name when saving image data corresponding to a handwritten image including the handwritten character. A name can be given.

第2の発明は、第1の発明に従属する情報処理装置であって、文字認識手段は、表示面に設定された所定の範囲内の手書き文字を文字認識する。   A second invention is an information processing apparatus subordinate to the first invention, wherein the character recognition means recognizes a handwritten character within a predetermined range set on the display surface.

第2の発明では、文字認識の対象を所定の範囲内の手書き文字に限ることで、文字認識処理の処理負荷を軽減することができる。   In 2nd invention, the processing load of a character recognition process can be reduced by restricting the object of character recognition to the handwritten character in a predetermined range.

第3の発明は、第2の発明に従属する情報処理装置であって、所定の範囲を規定する枠を示す枠画像を表示面に表示する枠画像表示手段をさらに備える。   A third invention is an information processing apparatus subordinate to the second invention, further comprising frame image display means for displaying a frame image indicating a frame defining a predetermined range on a display surface.

第3の発明では、さらに枠画像表示手段(S3,S141)が実現され、枠画像表示手段は、所定の範囲を規定する枠を示す枠画像を表示面に表示する。   In the third invention, frame image display means (S3, S141) is further realized, and the frame image display means displays a frame image indicating a frame defining a predetermined range on the display surface.

第3の発明によれば、枠が表示されることで、ユーザは、所定の範囲内に収まるようにファイル名を手書きすることができる。   According to the third aspect, by displaying the frame, the user can handwrite the file name so as to be within a predetermined range.

第4の発明は、第2または3の発明に従属する情報処理装置であって、所定の範囲は表示面内に予め設定されている。   A fourth invention is an information processing apparatus subordinate to the second or third invention, and the predetermined range is preset in the display surface.

第4の発明によれば、所定の範囲を指定する手間を省くことができる。   According to the fourth aspect, it is possible to save the trouble of designating the predetermined range.

第5の発明は、第2または3の発明に従属する情報処理装置であって、入力手段からの入力に応じて所定の範囲を指定する範囲指定手段をさらに備える。   The fifth invention is an information processing apparatus subordinate to the second or third invention, further comprising range specifying means for specifying a predetermined range in response to an input from the input means.

第5の発明では、範囲指定手段(S131,S135)は、入力手段からの入力に応じて所定の範囲を指定する。   In the fifth invention, the range designating means (S131, S135) designates a predetermined range according to the input from the input means.

第5の発明によれば、ユーザは、情報処理装置に文字認識を行わせる範囲を任意に指定することができる。   According to the fifth aspect, the user can arbitrarily designate a range in which the information processing apparatus causes character recognition.

第6の発明は、第2ないし5のいずれかの発明に従属する情報処理装置であって、文字認識手段は、所定の範囲の外部への手書きが行われたタイミングで所定の範囲内の手書き文字を文字認識する。   A sixth invention is an information processing apparatus according to any one of the second to fifth inventions, wherein the character recognition means performs handwriting within a predetermined range at a timing when handwriting to the outside of the predetermined range is performed. Recognize characters.

第6の発明では、所定の範囲内に文字が手書きされた後、その所定の範囲外への手書きが行われたタイミングで、その所定の範囲内の手書き文字が文字認識される。   In the sixth invention, after a character is handwritten within a predetermined range, the handwritten character within the predetermined range is recognized at the timing when handwriting outside the predetermined range is performed.

第6の発明によれば、ユーザは、ファイル名に設定するべき文字を所定の範囲内に手書きした後に、所定の範囲外への手書きを行うと、所定の範囲内に手書きされた文字が文字認識される。たとえば、会議の議事録を手書きする場合に、会議の議題を所定の範囲内に手書きし、続けて、所定の範囲外に討議の内容を手書きするときに、会議の議題の文字列が文字認識され、議事録の手書き画像に対応する画像データのファイル名に設定することができるので、議事録を普通に手書きするだけで、後の管理や検索に適したファイル名を簡単に付すことができる。   According to the sixth aspect, when the user performs handwriting outside the predetermined range after handwriting the character to be set in the file name within the predetermined range, the character handwritten within the predetermined range Be recognized. For example, when handwriting meeting minutes, handwriting the meeting agenda within a predetermined range, and then handwriting the contents of the discussion outside the predetermined range, the character string of the meeting agenda is recognized. Since it can be set to the file name of the image data corresponding to the handwritten image of the minutes, it is possible to easily assign a file name suitable for later management and search by simply handwriting the minutes. .

第7の発明は、第2ないし5のいずれかの発明に従属する情報処理装置であって、表示面に表示されたページとは異なるページを表示させるページ操作を検出するページ操作検出手段をさらに備え、文字認識手段は、ページ操作が検出されたタイミングで所定の範囲内の手書き文字を文字認識する。   A seventh invention is an information processing apparatus according to any one of the second to fifth inventions, further comprising a page operation detection means for detecting a page operation for displaying a page different from the page displayed on the display surface. The character recognizing means recognizes a handwritten character within a predetermined range at a timing when a page operation is detected.

第7の発明では、ページ操作検出手段(S37a)は、表示面に表示されたページとは異なるページを表示させるページ操作を検出する。文字認識手段は、ページ操作が検出されたタイミングで所定の範囲内の手書き文字を文字認識する。なお、ページ操作は、たとえば、順方向または逆方向のページ送りボタン(104a,104b)を押す操作や、これと類似の機能を有するスライドないしフリックである。   In the seventh invention, the page operation detecting means (S37a) detects a page operation for displaying a page different from the page displayed on the display surface. The character recognition means recognizes handwritten characters within a predetermined range at the timing when the page operation is detected. Note that the page operation is, for example, an operation of pushing the forward or backward page feed buttons (104a, 104b) or a slide or flick having a similar function.

したがって、第7の発明では、所定の範囲内に文字が手書きされた後、ページ操作によって別のページに移動するタイミングで、その所定の範囲内の手書き文字が文字認識される。   Therefore, in the seventh aspect, after a character is handwritten within a predetermined range, the handwritten character within the predetermined range is recognized at a timing when moving to another page by a page operation.

第7の発明によれば、たとえば、議事録を手書きしている場合に、次のページに移動するような通常のボタン操作を行ったときに、所定の範囲内に手書きされた文字が文字認識され、議事録の手書き画像に対応する画像データのファイル名に設定されるので、後の管理や検索に適したファイル名を簡単に設定することができる。   According to the seventh invention, for example, when the minutes are handwritten, when a normal button operation is performed to move to the next page, characters handwritten within a predetermined range are recognized. Since the file name of the image data corresponding to the handwritten image of the minutes is set, a file name suitable for later management and search can be easily set.

第8の発明は、第2ないし5のいずれかの発明に従属する情報処理装置であって、所定のボタンに対するボタン操作を検出するボタン操作検出手段をさらに備え、文字認識手段は、ボタン操作が検出されたタイミングで所定の範囲内の手書き文字を文字認識する。   An eighth invention is an information processing apparatus according to any one of the second to fifth inventions, further comprising button operation detection means for detecting a button operation on a predetermined button, wherein the character recognition means Characters of handwritten characters within a predetermined range are recognized at the detected timing.

第8の発明では、ボタン操作検出手段(S37b)は、所定のボタンに対するボタン操作を検出する。文字認識手段は、ボタン操作が検出されたタイミングで所定の範囲内の手書き文字を文字認識する。所定のボタンは、情報処理装置に設けられた操作パネルや情報処理装置に接続されたキーボードのようなハードウェアキーでもよいし、表示手段の表示面に表示されたソフトウェアキーでもよい。   In the eighth invention, the button operation detecting means (S37b) detects a button operation on a predetermined button. The character recognition means recognizes handwritten characters within a predetermined range at the timing when the button operation is detected. The predetermined button may be a hardware key such as an operation panel provided in the information processing apparatus or a keyboard connected to the information processing apparatus, or may be a software key displayed on the display surface of the display unit.

したがって、第8の発明では、所定の範囲内に文字が手書きされた後、所定のボタンが押されたタイミングで、その所定の範囲内の手書き文字が文字認識される。   Therefore, in the eighth aspect, after a character is handwritten within a predetermined range, the handwritten character within the predetermined range is recognized when the predetermined button is pressed.

第8の発明によれば、所定のボタンを押すだけで、所定の範囲内に手書きした文字を文字認識して、手書き画像に対応する画像データのファイル名に設定するので、ファイル名を簡単に設定することができる。   According to the eighth invention, simply by pressing a predetermined button, a character handwritten within a predetermined range is recognized and set as the file name of the image data corresponding to the handwritten image. Can be set.

第9の発明は、第2ないし5のいずれかの発明に従属する情報処理装置であって、入力手段からの入力が無くなってからの継続時間を計時する計時手段をさらに備え、文字認識手段は、継続時間が所定時間を越えたタイミングで所定の範囲内の手書き文字を文字認識する。   A ninth invention is an information processing apparatus according to any one of the second to fifth inventions, further comprising a time measuring means for measuring a duration after the input from the input means is lost, and the character recognizing means comprises The handwritten character within the predetermined range is recognized at the timing when the duration exceeds the predetermined time.

第9の発明では、計時手段(S32)は、入力手段からの入力が無くなってからの継続時間を計時する。つまり、ユーザが手書きしていない状態の時間が計測される。文字認識手段は、入力休止状態の継続時間が所定時間を越えたタイミングで所定の範囲内の手書き文字を文字認識する。   In the ninth invention, the time measuring means (S32) measures the duration after the input from the input means is lost. That is, the time when the user is not handwriting is measured. The character recognition means recognizes a handwritten character within a predetermined range at a timing when the duration of the input pause state exceeds a predetermined time.

第9の発明によれば、所定時間を超えて手書きされない場合には、手書きを終了したと判断して、所定範囲内に手書きされた文字を文字認識して、手書き画像に対応する画像データのファイル名を付すので、ユーザの手を煩わすことが無い。   According to the ninth invention, when the handwriting is not handed over for a predetermined time, it is determined that the handwriting is finished, the character handwritten within the predetermined range is recognized, and the image data corresponding to the handwritten image is detected. Since the file name is assigned, the user's hand is not bothered.

第10の発明は、第5の発明に従属する情報処理装置であって、範囲指定手段は、入力手段を用いて文字が手書きされた後に所定の範囲を指定し、文字認識手段は、所定の範囲の指定が終わった後の所定のタイミングで所定の範囲内の手書き文字を文字認識する。たとえば、所定の範囲の指定が終わった後の所定のタイミングは、所定の範囲の指定が終わった後に、所定のボタンが押されたり、所定の範囲を指定するための入力手段からの入力が無くなったりしたタイミングを意味する。   A tenth invention is an information processing apparatus according to the fifth invention, wherein the range specifying means specifies a predetermined range after the character is handwritten using the input means, and the character recognition means Character recognition is performed on handwritten characters within a predetermined range at a predetermined timing after the range is specified. For example, at the predetermined timing after the specification of the predetermined range, the predetermined button is pressed after the specification of the predetermined range, or there is no input from the input means for specifying the predetermined range. It means the timing.

第10の発明によれば、ユーザが任意のタイミングで任意の範囲を所定範囲として指定できるので、手書きした後に手書き画像に含まれる所望の文字列を選択して、ファイル名を付すことができる。   According to the tenth aspect, since the user can designate an arbitrary range as the predetermined range at an arbitrary timing, it is possible to select a desired character string included in the handwritten image after handwriting and attach a file name.

第11の発明は、第1の発明に従属する情報処理装置であって、入力手段からの指示が無くなってからの継続時間を計時する計時手段をさらに備え、文字認識手段は、継続時間が所定時間を越えたタイミングで表示面に描画された手書き文字の全部を文字認識する。   An eleventh aspect of the invention is an information processing apparatus subordinate to the first aspect of the invention, further comprising time-counting means for measuring a duration after the instruction from the input means is lost, and the character recognition means has a predetermined duration. Character recognition is performed for all handwritten characters drawn on the display surface at a timing exceeding the time.

第11の発明では、計時手段(S32)は、入力手段からの指示が無くなってからの継続時間を計時する。つまり、ユーザが指示していない状態の時間が計測される。文字認識手段は、指示休止状態の継続時間が所定時間を越えたタイミングで表示面に描画された手書き文字の全部を文字認識する。   In the eleventh aspect, the time measuring means (S32) measures the duration time after the instruction from the input means is lost. That is, the time when the user is not instructing is measured. The character recognition means recognizes all the handwritten characters drawn on the display surface at a timing when the duration of the instruction pause state exceeds a predetermined time.

第11の発明によれば、所定時間を超えて指示されない場合には、手書きを終了したと判断して、表示面に描画された手書き文字の全部を文字認識して、手書き画像に対応する画像データのファイル名を付すので、ユーザの手を煩わすことが無い。   According to the eleventh aspect of the present invention, if the instruction is not given after a predetermined time, it is determined that the handwriting is finished, and all the handwritten characters drawn on the display surface are recognized, and the image corresponding to the handwritten image Since the file name of the data is attached, there is no need to bother the user.

第12の発明は、入力手段を用いて手書きされた文字を含む手書き画像を表示手段の表示面に描画し、表示面に描画された手書き画像に対応する画像データを保存するコンピュータの情報処理プログラムであって、情報処理プログラムは、コンピュータを、入力手段により指示された表示面上の位置の座標を取得する座標取得手段、座標取得手段によって取得された座標に基づいて、表示面に描画された手書き文字の全部または一部を所定のタイミングで文字認識する文字認識手段、および文字認識手段の認識結果に対応する文字ないし文字列を用いて画像データのファイル名を作成するファイル名作成手段として機能させる。   A twelfth aspect of the invention is an information processing program for a computer that draws a handwritten image including characters handwritten using the input means on the display surface of the display means and stores image data corresponding to the handwritten image drawn on the display surface The information processing program is drawn on the display surface based on the coordinates acquired by the computer, the coordinate acquisition unit that acquires the coordinates of the position on the display surface instructed by the input unit. Functions as a character recognition unit that recognizes all or part of a handwritten character at a predetermined timing, and a file name creation unit that creates a file name of image data using characters or character strings corresponding to the recognition result of the character recognition unit Let

第13の発明は、入力手段を用いて手書きされた文字を含む手書き画像を表示手段の表示面に描画し、表示面に描画された手書き画像に対応する画像データを保存するコンピュータの情報処理方法であって、コンピュータは、(a)入力手段により指示された表示面上の位置の座標を取得し、(b)ステップ(a)において取得された座標に基づいて、表示面に描画された手書き文字の全部または一部を所定のタイミングで文字認識し、そして(c)ステップ(b)における認識結果に対応する文字ないし文字列を用いて画像データのファイル名を作成する。   A thirteenth aspect of the invention is an information processing method for a computer that draws a handwritten image including characters handwritten using input means on the display surface of the display means, and stores image data corresponding to the handwritten image drawn on the display surface The computer acquires (a) the coordinates of the position on the display surface instructed by the input means, and (b) the handwriting drawn on the display surface based on the coordinates acquired in step (a). Characters are recognized for all or part of the characters at a predetermined timing, and (c) a file name of image data is created using characters or character strings corresponding to the recognition result in step (b).

第12および第13の各発明においても、第1の発明と同様に、直接関係の無い情報を画像データに含めること無く、簡単にファイル名を付すことができる。   In each of the twelfth and thirteenth inventions, similarly to the first invention, it is possible to easily assign a file name without including unrelated information in the image data.

この発明によれば、ユーザが手書きした文字の一部または全部が所定のタイミングで文字認識されて、その手書き文字を含む手書き画像に対応する画像データを保存する際のファイル名に使用するので、簡単にファイル名を付すことができる。   According to the present invention, part or all of the characters handwritten by the user are recognized at a predetermined timing and used for the file name when saving the image data corresponding to the handwritten image including the handwritten characters. You can easily attach a file name.

この発明の第1実施例である情報処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information processing apparatus which is 1st Example of this invention. 情報処理装置のタッチ画面の一例を示す図解図である。It is an illustration figure which shows an example of the touch screen of information processing apparatus. タッチ画面に文字を手書きして、その手書き文字を含む手書き画像を保存する場合のタッチ画面の遷移例の一部を示す図解図であり、(A)は手書きが開始された直後のタッチ画面の一例を示し、(B)は枠内に文字が手書きされた場合のタッチ画面の一例を示す。It is an illustration figure which shows a part of transition example of the touch screen at the time of handwriting a character on a touch screen and preserve | saving the handwritten image containing the handwritten character, (A) is a touch screen immediately after handwriting is started. An example is shown, (B) shows an example of a touch screen when a character is handwritten in a frame. 図3に続くタッチ画面の遷移例の他の一部を示す図解図であり、(A)は枠内に手書きされた文字が文字認識された場合のタッチ画面の一例を示し、(B)は文字認識された後に議事録を手書きする場合のタッチ画面の一例を示す。It is an illustration figure which shows the other part of the example of a transition of the touch screen following FIG. 3, (A) shows an example of the touch screen when the character handwritten in the frame is recognized, (B) is An example of the touch screen in the case of handwriting the minutes after character recognition is shown. 図4に続くタッチ画面の遷移例のその他の一部示す図解図であり、手書き画像を保存する場合のタッチ画面を示す。It is an illustration figure which shows the other part of the example of a transition of the touch screen following FIG. 4, and shows the touch screen in the case of preserve | saving a handwritten image. 枠内の手書き文字を文字認識できない場合のタッチ画面の一例を示す図解図である。It is an illustration figure which shows an example of a touch screen when the handwritten character in a frame cannot be recognized. 図1に示すメモリのメモリマップの一例を示す図解図である。It is an illustration figure which shows an example of the memory map of the memory shown in FIG. 図1に示すCPUの手書き制御処理の一例を示すフロー図である。It is a flowchart which shows an example of the handwriting control process of CPU shown in FIG. 図1に示すCPUの文字認識処理の一例を示すフロー図である。It is a flowchart which shows an example of the character recognition process of CPU shown in FIG. 図1に示すCPUのファイル保存処理の一例を示すフロー図である。It is a flowchart which shows an example of the file preservation | save process of CPU shown in FIG. 図1に示すCPUの文字認識処理の他の例を示すフロー図である。It is a flowchart which shows the other example of the character recognition process of CPU shown in FIG. 第2実施例において、タッチ画面に文字を手書きして、その手書き文字を含む手書き画像を保存する場合のタッチ画面の遷移例の一部を示す図解図であり、(A)は手書きを開始した後にファイル名の設定を開始する場合のタッチ画面の一例を示し、(B)はファイル名を入力するための枠を指定する場合のタッチ画面の一例を示す。In 2nd Example, it is an illustration figure which shows a part of transition example of a touch screen in the case of handwriting a character on a touch screen and preserve | saving the handwritten image containing the handwritten character, (A) started handwriting An example of a touch screen when setting of a file name is started later is shown, and (B) shows an example of a touch screen when a frame for inputting a file name is designated. 図12に続くタッチ画面の遷移例の他の一部を示す図解図であり、枠内の文字を文字認識した場合のタッチ画面の一例を示す。It is an illustration figure which shows the other part of the example of a transition of the touch screen following FIG. 12, and shows an example of the touch screen at the time of character-recognizing the character in a frame. 第2実施例におけるCPUの手書き制御処理の一例を示すフロー図である。It is a flowchart which shows an example of the handwriting control process of CPU in 2nd Example. 第2実施例におけるCPUの枠指定処理の一例を示すフロー図である。It is a flowchart which shows an example of the frame designation | designated process of CPU in 2nd Example. 第2実施例におけるCPUの文字認識処理の一例を示すフロー図である。It is a flowchart which shows an example of the character recognition process of CPU in 2nd Example. 第3実施例において、タッチ画面に文字を手書きして、その手書き文字を含む手書き画像を保存する場合のタッチ画面の遷移例の一部を示す図解図であり、(A)は文字を手書きした場合のタッチ画面の一例を示し、(B)は手書き入力が無くなってから所定時間を経過し、描画されたすべての手書き文字を文字認識した場合のタッチ画面の一例を示す。In 3rd Example, it is an illustration figure which shows a part of transition example of the touch screen in the case of handwriting a character on a touch screen and preserve | saving the handwritten image containing the handwritten character, (A) handwritten the character An example of the touch screen in this case is shown, and (B) shows an example of the touch screen when a predetermined time elapses after the handwriting input is lost and all drawn handwritten characters are recognized. 第3実施例におけるCPUの文字認識処理の一例を示すフロー図である。It is a flowchart which shows an example of the character recognition process of CPU in 3rd Example. 第4実施例において、タッチ画面に文字を手書きして、その手書き文字を含む手書き画像を保存する場合のタッチ画面の遷移例の一部を示す図解図であり、(A)は手書きを行った後に文字認識する範囲の指定を開始する場合のタッチ画面の一例を示し、(B)は文字認識する範囲を指定する場合のタッチ画面の一例を示す。In 4th Example, it is an illustration figure which shows a part of transition example of a touch screen at the time of handwriting a character on a touch screen and preserve | saving the handwritten image containing the handwritten character, (A) performed handwriting An example of a touch screen when starting to specify a range for character recognition later is shown, and (B) shows an example of a touch screen for specifying a range for character recognition. 図19に続くタッチ画面の遷移例の他の一部を示す図解図であって、指定された枠内に手書きされた文字を文字認識した場合のタッチ画面の一例を示す。It is an illustration figure which shows the other part of the example of a transition of the touch screen following FIG. 19, Comprising: An example of the touch screen at the time of character-recognizing the character handwritten in the designated frame is shown. 第4実施例におけるCPUの手書き制御処理の一例を示すフロー図である。It is a flowchart which shows an example of the handwriting control process of CPU in 4th Example. 第4実施例におけるCPUの文字認識処理の一例を示すフロー図である。It is a flowchart which shows an example of the character recognition process of CPU in 4th Example.

[第1実施例]
図1を参照して、この発明の第1実施例である情報処理装置10はCPU12を含む。CPU12には、バス30を介してメモリ14およびタッチパネル16が接続され、さらにバス30および描画コントローラ18を介してディスプレイ20が接続される。
[First embodiment]
Referring to FIG. 1, information processing apparatus 10 according to the first embodiment of the present invention includes a CPU 12. The CPU 12 is connected to the memory 14 and the touch panel 16 via the bus 30, and is further connected to the display 20 via the bus 30 and the drawing controller 18.

この第1実施例では、情報処理装置10が電子黒板に適用される場合について説明するが、電子黒板のみならず、タブレット端末、スマートフォン、PCなどの各種の情報機器ないし電子機器に適用され、手書き入力に応じて、手書きの文字、図形、記号等がディスプレイ20に描画(表示)される。   In the first embodiment, a case where the information processing apparatus 10 is applied to an electronic blackboard will be described. However, the information processing apparatus 10 is applied not only to an electronic blackboard but also to various information devices or electronic devices such as a tablet terminal, a smartphone, and a PC. In response to the input, handwritten characters, figures, symbols, and the like are drawn (displayed) on the display 20.

また、この第1実施例では、入力手段の一例として、タッチパネル16が用いられる場合について説明するが、タッチパネル16以外の入力手段として、たとえばコンピュータマウス、タッチパッド、ペンタブレットなどのポインティングデバイスを用いてもよい。また、情報処理装置10には、他の入力手段として、操作パネルのようなハードウェアキーが設けられたり、ハードウェアのキーボードが接続されたりすることがある。   In the first embodiment, a case where the touch panel 16 is used as an example of the input unit will be described. However, as an input unit other than the touch panel 16, a pointing device such as a computer mouse, a touch pad, or a pen tablet is used. Also good. The information processing apparatus 10 may be provided with a hardware key such as an operation panel or a hardware keyboard as other input means.

図1に戻って、CPU12は、情報処理装置10の全体的な制御を司る。メモリ14は、CPU12のワーク領域およびバッファ領域として用いられる。タッチパネル16は、ユーザのタッチ入力を検出して、このタッチ入力で指示されるディスプレイ20の表示面上の位置の座標(タッチ座標)についてのデータ(タッチ座標データ)をCPU12に出力する。タッチパネル16は、汎用のタッチパネルであり、静電容量方式、電磁誘導方式、抵抗膜方式、赤外線方式など、任意の方式のものを用いることができる。この第1実施例では、タッチパネル16としては、静電容量方式のタッチパネルがディスプレイ20の表示面上に設けられる。描画コントローラ18は、GPU,VRAMなどを含み、CPU12の指示の下で、ディスプレイ20の画面に各種の画像を描画する。   Returning to FIG. 1, the CPU 12 governs overall control of the information processing apparatus 10. The memory 14 is used as a work area and a buffer area for the CPU 12. The touch panel 16 detects a user's touch input and outputs data (touch coordinate data) about coordinates (touch coordinates) of a position on the display surface of the display 20 instructed by the touch input. The touch panel 16 is a general-purpose touch panel, and an arbitrary system such as an electrostatic capacity system, an electromagnetic induction system, a resistance film system, and an infrared system can be used. In the first embodiment, as the touch panel 16, a capacitive touch panel is provided on the display surface of the display 20. The drawing controller 18 includes a GPU, a VRAM, and the like, and draws various images on the screen of the display 20 under the instruction of the CPU 12.

このような構成の描画装置10では、手書き入力モードにおいて、ユーザがタッチパネル16を利用して文字、図形、記号など(以下、「文字等」ということがある。)を手書き入力(タッチ入力)すると、手書き入力に従ってタッチパネル16はタッチ位置に対応するタッチ座標データをCPU12に出力する。CPU12は、タッチパネル16から出力されたタッチ座標データに基づいてディスプレイ20に手書きの文字等を描画(表示)する。つまり、CPU12の指示の下、描画コントローラ18において手書きの文字等がVRAM上に描画され、VRAM上に描画された手書きの文字等を含む画像に対応する画像データがディスプレイ20に出力される。したがって、ユーザが手書きした文字等を含む画像がディスプレイ20に表示される。以下、この明細書においては、ユーザが文字を手書きすることを前提とし、手書き文字を含む画像を「手書き画像」と呼ぶことにする。   In the drawing apparatus 10 having such a configuration, when a user uses a touch panel 16 to input characters, figures, symbols, and the like (hereinafter sometimes referred to as “characters”) by handwriting (touch input) in the handwriting input mode. According to the handwriting input, the touch panel 16 outputs touch coordinate data corresponding to the touch position to the CPU 12. The CPU 12 draws (displays) handwritten characters on the display 20 based on the touch coordinate data output from the touch panel 16. That is, under the instruction of the CPU 12, handwritten characters and the like are drawn on the VRAM in the drawing controller 18, and image data corresponding to an image including the handwritten characters and the like drawn on the VRAM is output to the display 20. Therefore, an image including characters handwritten by the user is displayed on the display 20. Hereinafter, in this specification, an image including a handwritten character is referred to as a “handwritten image” on the premise that the user handwrites the character.

たとえば、手書き入力モードでは、図2に示すような画面(タッチ画面)100がディスプレイ20に表示される。タッチ画面100の左端部には、ボタン画像102a、102b、…が表示される。また、タッチ画面100の中央下端部には、ボタン画像104aおよび104bが表示される。ボタン画像102aは、手書きツールから範囲指定ツールに変更するために設けられる範囲ボタンである。ボタン画像102bは、手書き画像に対応する画像データを保存するために設けられる保存ボタンである。ボタン画像104aは、ページ送りのために設けられるページ送りボタンである。ボタン画像104bはページ戻しのために設けられるページ戻しボタンである。   For example, in the handwriting input mode, a screen (touch screen) 100 as shown in FIG. Button images 102 a, 102 b,... Are displayed at the left end of the touch screen 100. In addition, button images 104 a and 104 b are displayed at the center lower end portion of the touch screen 100. The button image 102a is a range button provided for changing from a handwriting tool to a range specification tool. The button image 102b is a save button provided for saving image data corresponding to a handwritten image. The button image 104a is a page turning button provided for page turning. The button image 104b is a page return button provided for page return.

図示は省略するが、タッチ画面100には、線種、線色、線幅を選択するためのパレットや上記以外のツールや機能(新規ページを開く、手書き、消しゴム、取り消しなど)を選択するためのボタン画像なども表示される。   Although illustration is omitted, the touch screen 100 is for selecting a palette for selecting a line type, line color, and line width, and other tools and functions (open a new page, handwriting, eraser, cancel, etc.). The button image etc. are also displayed.

たとえば、ユーザは、専用のペン120でタッチパネル16を操作する。ただし、ユーザは、手指で操作することもできる。タッチパネル16を用いた操作(入力)としては、タップ(短押し)、スライド(ドラッグ)、フリック、ロングタッチ(長押し)などがあり、この第1実施例では、これらを「タッチ入力」または単に「入力」のように総称する。また、タッチパネル16をタッチしていない状態からタッチしている状態に変化することをタッチオン(ペンダウン)と言い、タッチパネル16をタッチしている状態からタッチしていない状態に変化することをタッチオフ(ペンアップ)と言う。継続的なタッチ入力つまりスライドやフリックによる入力に対しては、タッチパネル16は、現在のタッチ位置に対応するタッチ座標データを所定周期よりも短い周期で出力する。たとえば、所定周期は、1〜数フレームであり、1フレームは1/30秒または1/60秒である。   For example, the user operates the touch panel 16 with the dedicated pen 120. However, the user can also operate with fingers. The operation (input) using the touch panel 16 includes tap (short press), slide (drag), flick, long touch (long press), etc. In the first embodiment, these are “touch input” or simply They are generically named as “input”. Further, changing from a state where the touch panel 16 is not touched to a state where the touch panel 16 is touched is referred to as touch-on (pen down), and changing from a state where the touch panel 16 is touched to a state where the touch panel 16 is not touched is referred to as touch-off (pen). Say up). For continuous touch input, that is, input by sliding or flicking, the touch panel 16 outputs touch coordinate data corresponding to the current touch position at a cycle shorter than a predetermined cycle. For example, the predetermined period is 1 to several frames, and one frame is 1/30 second or 1/60 second.

一般的な電子黒板では、手書き画像に対応する画像データを保存する場合、ユーザは、ソフトウェアまたはハードウェアのキーボードを利用して、ファイル名を入力することがある。   In a general electronic blackboard, when storing image data corresponding to a handwritten image, a user may input a file name using a software or hardware keyboard.

しかし、手書き入力を行っている場合に、ディスプレイ20にソフトウェアのキーボードを表示したり、ペン120に代えてハードウェアのキーボードを用いたりするのは面倒であり、使い勝手が悪い。   However, it is troublesome to display a software keyboard on the display 20 or use a hardware keyboard instead of the pen 120 when handwriting input is being performed, which is inconvenient.

そこで、この第1実施例では、ユーザに煩わしい操作をさせることなく、簡単にファイル名を設定できるようにしてある。   Therefore, in the first embodiment, the file name can be easily set without causing the user to perform troublesome operations.

たとえば、電子黒板を利用して会議の議事録を板書する場合、ユーザは、最初に、タイトルとしてその会議の議題をディスプレイ20の表示面の上部ないし左上部に書くことが多い。また、板書後に議事録のデータ(画像データ)を保存する場合には、その議題をファイル名として入力する可能性が高い。   For example, when a meeting minutes is written on a board using an electronic blackboard, the user often first writes the agenda of the meeting as a title on the upper or left upper part of the display surface of the display 20. In addition, when the minutes data (image data) is stored after writing on the board, the agenda is likely to be input as a file name.

そこで、この第1実施例では、手書き入力モードで手書きを開始すると、ファイル名(タイトル)を入力するための枠(106)を表示面の上部の所定位置に表示し、この枠(106)内に手書きされた文字(手書き文字)を所定のタイミングで文字認識して、手書き画像の画像データを保存するときのファイル名として使用するようにしてある。この明細書においては、手書き文字は、手書きされた一文字または文字列を意味する。   Therefore, in the first embodiment, when handwriting is started in the handwriting input mode, a frame (106) for inputting a file name (title) is displayed at a predetermined position on the upper part of the display surface, and the frame (106) The handwritten character (handwritten character) is recognized at a predetermined timing and used as a file name when storing image data of a handwritten image. In this specification, the handwritten character means one handwritten character string or character string.

図3および図4は、タッチ画面100に文字を手書きして、その手書き画像を保存する場合のタッチ画面100の遷移例を示す図解図である。図3(A)は、手書き入力モードで手書きを開始する場合にディスプレイ20に表示されたタッチ画面100の一例である。このタッチ画面100には、上述したように、その左端部にボタン画像102a、102b、…が表示され、その下端部の中央に、ボタン画像104aおよび104bが表示される。また、タッチ画面100の上部には、点線の枠106が表示される。この第1実施例では、枠106はタッチ画面100(ディスプレイ20の表示面)の所定位置および大きさで表示される。たとえば、図3(A)に示すように、ディスプレイ20には2次元の座標系(スクリーン座標系)が設定されており、ディスプレイ20の表示面の左下の頂点が原点Oに設定される。そして、枠106は、点P1および点P2の2点でその位置および大きさが決定される。   3 and 4 are illustrative views showing an example of transition of the touch screen 100 when a character is handwritten on the touch screen 100 and the handwritten image is stored. FIG. 3A is an example of the touch screen 100 displayed on the display 20 when handwriting is started in the handwriting input mode. As described above, on the touch screen 100, the button images 102a, 102b,... Are displayed at the left end thereof, and the button images 104a and 104b are displayed at the center of the lower end thereof. In addition, a dotted frame 106 is displayed at the top of the touch screen 100. In the first embodiment, the frame 106 is displayed at a predetermined position and size on the touch screen 100 (display surface of the display 20). For example, as shown in FIG. 3A, a two-dimensional coordinate system (screen coordinate system) is set for the display 20, and the lower left vertex of the display surface of the display 20 is set to the origin O. The position and size of the frame 106 are determined at two points, point P1 and point P2.

なお、図3(A)に示す座標系の文字や点P1およびP2は情報処理装置10の内部処理に用いられるだけであり、ディスプレイ20に表示されることはない。また、座標系は実施例の態様に限定される必要は無く、任意に設定することができる。   It should be noted that characters and points P1 and P2 in the coordinate system shown in FIG. 3A are only used for internal processing of the information processing apparatus 10 and are not displayed on the display 20. Further, the coordinate system need not be limited to the embodiment, and can be arbitrarily set.

また、図3(A)に示すように、枠106の中には、「ファイル名」の文字が表示され、枠106内に手書きされた文字をファイル名に設定できることが示される。ただし、これは一例であり、限定されるべきではない。たとえば、枠106内に文字が手書きされるまで、枠106を点滅させたり、枠106の近傍に「枠内にファイル名を入力してください」のようなメッセージを表示したりしてもよい。   Also, as shown in FIG. 3A, the characters “file name” are displayed in the frame 106, indicating that the characters handwritten in the frame 106 can be set as the file name. However, this is an example and should not be limited. For example, the frame 106 may blink until characters are handwritten in the frame 106, or a message such as “Please input a file name in the frame” may be displayed near the frame 106.

したがって、ユーザは、ペン120を用いて枠106内にファイル名として設定するべき文字や文字列を手書きする。たとえば、図3(B)に示すタッチ画面100では、ファイル名として「検討会」の文字列が手書きされた様子が示される。   Therefore, the user uses the pen 120 to handwrite characters and character strings to be set as file names in the frame 106. For example, the touch screen 100 shown in FIG. 3B shows a state in which the character string “review group” is handwritten as the file name.

ユーザは、議題に続いて、議事録を手書き(板書)する。このとき、図4(A)に示すように、ユーザは、枠106外に文字を手書きする。この第1実施例では、枠106外を指示するタッチ座標データが入力されると、枠106外への文字の手書きが開始されたと判断し、このタイミングで枠106内に手書きされた文字が文字認識される。上述したように、点P1と点P2で枠106の範囲は既定されるため、たとえば、点P1および点P2の座標を、(x1,y1)および(x2,y2)とすると、これらで決定される範囲外の点が指示されたときに、枠106外への入力が検出される。そして、点P1および点P2の範囲内で検出された複数の点に基づいて、枠106内に手書きされた文字が文字認識される。たとえば、文字認識が実行されると、タッチ画面100の右上部に表示領域110が表示され、文字認識の認識結果、すなわち認識された文字(一文字または文字列)が表示領域110内に表示される。ただし、これは一例であり、文字認識に成功した旨のメッセージを表示してもよい。または、文字認識に成功したことを、枠106を点滅させたり、枠106の色を変えたりすることにより、ユーザに報知してもよい。   Following the agenda, the user handwrites the minutes (board writing). At this time, as shown in FIG. 4A, the user handwrites characters outside the frame 106. In the first embodiment, when touch coordinate data indicating the outside of the frame 106 is input, it is determined that the handwriting of the character outside the frame 106 has started, and the character handwritten in the frame 106 at this timing Be recognized. As described above, since the range of the frame 106 is determined by the points P1 and P2, for example, if the coordinates of the points P1 and P2 are (x1, y1) and (x2, y2), they are determined by these. When an out-of-range point is indicated, an input outside the frame 106 is detected. And the character handwritten in the frame 106 is recognized based on a plurality of points detected within the range of the points P1 and P2. For example, when character recognition is executed, the display area 110 is displayed in the upper right part of the touch screen 100, and the recognition result of character recognition, that is, the recognized character (one character or character string) is displayed in the display area 110. . However, this is only an example, and a message indicating that the character recognition has succeeded may be displayed. Alternatively, the user may be notified of the success of character recognition by blinking the frame 106 or changing the color of the frame 106.

なお、手書きされた文字の文字認識は既に周知であり、文字認識自体は本願発明の本質的な内容ではないため、文字認識の具体的な処理の説明は省略する。   In addition, since the character recognition of the handwritten character is already known and character recognition itself is not the essential content of this invention, description of the specific process of character recognition is abbreviate | omitted.

文字認識に成功すると、適宜のタイミングで、枠106および表示領域110はタッチ画面100から消去される。したがって、議事録の板書を続けると、図4(B)に示すようなタッチ画面100がディスプレイ20に表示される。その後、議事録の板書を終了し、ボタン画像102bをタッチ(オン)すると、図5に示すように、タッチ画面100の前面に保存画面200が表示される。   If the character recognition is successful, the frame 106 and the display area 110 are erased from the touch screen 100 at an appropriate timing. Therefore, when the board of minutes is continued, the touch screen 100 as shown in FIG. After that, when the minutes of the minutes are finished and the button image 102b is touched (turned on), the save screen 200 is displayed in front of the touch screen 100 as shown in FIG.

図5を参照して、保存画面200には、その上部に、手書き画像を保存することが表記され、その下側にファイル名の表示領域202が設けられ、さらにその下に、ボタン画像204aおよび204bが設けられる。ファイル名の表示領域202には、上述のようにして設定されたファイル名、ここでは、“議事録.***”がデフォルト設定として表示される。ただし、“***”は拡張子である。ボタン画像204aは、保存を実行するために設けられ、ボタン画像204bは、ファイル名を変更するために設けられる。   Referring to FIG. 5, the save screen 200 indicates that a handwritten image is saved at the top, a file name display area 202 is provided below, and further below the button image 204 a and 204b is provided. In the file name display area 202, the file name set as described above, here, “minutes. ***” is displayed as a default setting. However, “***” is an extension. The button image 204a is provided for executing saving, and the button image 204b is provided for changing a file name.

したがって、ボタン画像204aがタッチ(オン)されると、ファイル名の表示領域202に表示されたファイル名で手書き画像の画像データがハードディスクやSDカードのような不揮発性のメモリに保存される。このような不揮発性のメモリは、情報処理装置10に設けられても良いし、情報処理装置10に着脱自在に設けられても良い。   Therefore, when the button image 204a is touched (turned on), the image data of the handwritten image is stored in a nonvolatile memory such as a hard disk or an SD card with the file name displayed in the file name display area 202. Such a non-volatile memory may be provided in the information processing apparatus 10 or may be provided in the information processing apparatus 10 in a detachable manner.

また、ボタン画像204bがタッチされると、ファイル名を変更することが指示され、たとえば、ソフトウェアキーボードがディスプレイ20に表示され、このソフトウェアキーボードを用いて、新たなファイル名を入力することができる。ただし、ハードウェアキーボードを用いても良い。   When the button image 204b is touched, the file name is instructed to be changed. For example, a software keyboard is displayed on the display 20, and a new file name can be input using the software keyboard. However, a hardware keyboard may be used.

図3−図5では、文字認識に成功した場合について説明したが、図6に示すように、枠106内に文字以外の記号や図形などが記載された場合には、文字認識に失敗し、たとえば、文字認識に失敗した旨のメッセージが表示される。かかる場合には、たとえば、図6に示すタッチ画面100を適宜の時間表示した後に、枠106内に手書きされた内容が消去され、表示領域110に初めからファイル名を入力する旨のメッセージが表示される。このとき、直前までに検出されたタッチ座標データはすべて消去される。そして、図3(A)に示したタッチ画面100がディスプレイ20に表示される。   3 to 5, the case where the character recognition is successful has been described. However, as shown in FIG. 6, when a symbol or a figure other than a character is written in the frame 106, the character recognition fails, For example, a message indicating that character recognition has failed is displayed. In such a case, for example, after the touch screen 100 shown in FIG. 6 is displayed for an appropriate period of time, the content handwritten in the frame 106 is erased, and a message to input a file name from the beginning is displayed in the display area 110. Is done. At this time, all touch coordinate data detected immediately before is deleted. Then, the touch screen 100 shown in FIG.

なお、手書き入力が枠106の外から開始された場合には、枠106内に文字が手書きされていないため、上記の場合と同様に、文字認識に失敗する。   When handwriting input is started from outside the frame 106, characters are not handwritten in the frame 106, and character recognition fails as in the above case.

情報処理装置10の上記のような動作は、CPU12がメモリ14に記憶された情報処理プログラムを実行することにより実現される。この第1実施例では、情報処理プログラムの一例として、手書き文字を描画したり保存したりするプログラム(手書き制御処理プログラム)が実行される。具体的な処理については、後でフロー図を用いて説明する。   The above-described operation of the information processing apparatus 10 is realized by the CPU 12 executing an information processing program stored in the memory 14. In the first embodiment, as an example of the information processing program, a program (handwriting control processing program) for drawing and saving handwritten characters is executed. Specific processing will be described later with reference to a flowchart.

図7はメモリ14のメモリマップ40を示す。この図7を参照して、メモリ14は、プログラム記憶領域50およびデータ記憶領域70を含む。プログラム記憶領域50には、手書き制御処理プログラムが記憶される。手書き制御処理プログラムは、入力検出プログラム52、描画プログラム54、表示プログラム56、文字認識プログラム58、ファイル名作成プログラム60および保存プログラム62を含む。   FIG. 7 shows a memory map 40 of the memory 14. Referring to FIG. 7, memory 14 includes a program storage area 50 and a data storage area 70. The program storage area 50 stores a handwriting control processing program. The handwriting control processing program includes an input detection program 52, a drawing program 54, a display program 56, a character recognition program 58, a file name creation program 60, and a storage program 62.

入力検出プログラム52は、タッチパネル16から出力されたタッチ座標データを取得し、データ記憶領域70に時系列に従って記憶するためのプログラムである。ただし、入力検出プログラム52は、情報処理装置10に接続されたハードウェアのキーボードや情報処理装置10に設けられたハードウェアの操作パネルないし操作ボタンからの入力を検出するためのプログラムでもある。   The input detection program 52 is a program for acquiring touch coordinate data output from the touch panel 16 and storing it in the data storage area 70 in time series. However, the input detection program 52 is also a program for detecting input from a hardware keyboard connected to the information processing apparatus 10 or a hardware operation panel or operation button provided in the information processing apparatus 10.

描画プログラム54は、入力検出プログラム52に従って検出されたタッチ座標データが示す手書き文字を描画するためのプログラムである。具体的には、描画プログラム54が実行されると、CPU12の指示の下、描画コントローラ18において、GPUが手書き文字を含む手書き画像をVRAMに描画する。つまり、手書き画像に対応する画像データが生成される。表示プログラム56は、描画プログラム54に従って生成された画面データをディスプレイ20に出力するためのプログラムである。したがって、手書き画像がディスレプイ20の表示面に表示される。   The drawing program 54 is a program for drawing a handwritten character indicated by the touch coordinate data detected according to the input detection program 52. Specifically, when the drawing program 54 is executed, the GPU draws a handwritten image including handwritten characters on the VRAM in the drawing controller 18 under the instruction of the CPU 12. That is, image data corresponding to the handwritten image is generated. The display program 56 is a program for outputting screen data generated according to the drawing program 54 to the display 20. Therefore, the handwritten image is displayed on the display surface of the display 20.

文字認識プログラム58は、手書き入力に応じて、タッチパネル16から出力されたタッチ座標データに基づいて手書き文字を文字認識し、認識文字を記憶するためのプログラムである。この第1実施例では、枠データ76に従って既定される枠106内の手書き文字を文字認識するためのプログラムである。ファイル名作成プログラム60は、文字認識プログラム58の認識結果が示す文字列(認識文字)を用いてファイル名を作成したり、認識文字が記憶されていない場合に、自動的にファイル名を作成したりするためのプログラムである。保存プログラム62は、手書き画像に対応する画像データに、ファイル名作成プログラム60に従って作成されたファイル名またはユーザによって変更されたファイル名を付して、ハードディスクやSDカードなどの不揮発性のメモリに保存するためのプログラムである。   The character recognition program 58 is a program for recognizing a handwritten character based on touch coordinate data output from the touch panel 16 and storing the recognized character in response to handwriting input. The first embodiment is a program for recognizing handwritten characters in a frame 106 that is defined according to the frame data 76. The file name creation program 60 creates a file name using a character string (recognized character) indicated by the recognition result of the character recognition program 58, or automatically creates a file name when no recognized character is stored. It is a program to do. The storage program 62 attaches a file name created according to the file name creation program 60 or a file name changed by the user to the image data corresponding to the handwritten image, and saves it in a nonvolatile memory such as a hard disk or an SD card. It is a program to do.

データ記憶領域70には、タッチ座標データ72、手書き入力データ74、枠データ76、認識文字データ78および画像生成データ80などが記憶される。   The data storage area 70 stores touch coordinate data 72, handwritten input data 74, frame data 76, recognized character data 78, image generation data 80, and the like.

タッチ座標データ72は、タッチパネル16から出力された現在のタッチ座標データである。手書き入力データ74は、手書き文字についてのタッチ座標データを時系列に従って記憶したデータである。なお、タッチパネル16から出力されたタッチ座標データのうち、手書き文字についてのタッチ座標データ以外のタッチ座標データは、CPU12の処理に使用された後、消去される。つまり、タッチ画面100に表示されたボタン画像102a、102b、104a、104bが押されたことを判断された後、削除される。   The touch coordinate data 72 is current touch coordinate data output from the touch panel 16. The handwritten input data 74 is data in which touch coordinate data for handwritten characters is stored in time series. Of the touch coordinate data output from the touch panel 16, touch coordinate data other than the touch coordinate data for handwritten characters is erased after being used for the processing of the CPU 12. That is, after it is determined that the button images 102a, 102b, 104a, and 104b displayed on the touch screen 100 have been pressed, they are deleted.

枠データ76は、枠106の位置および範囲を既定するためのデータである。つまり、点P1および点P2の座標データである。認識文字データ78は、文字認識プログラム58に従って認識および記憶された認識文字についてのデータ(テキストデータ)である。画像生成データ84は、タッチ画面100についての画面データを生成するためのポリゴンデータやテクスチャデータなどである。この画像生成データ84は、タッチ画面100やファイル保存画面200などの画面データを生成するために、描画コントローラ18によって実行される。   The frame data 76 is data for defining the position and range of the frame 106. That is, the coordinate data of the points P1 and P2. The recognized character data 78 is data (text data) about a recognized character recognized and stored in accordance with the character recognition program 58. The image generation data 84 is polygon data or texture data for generating screen data for the touch screen 100. The image generation data 84 is executed by the drawing controller 18 in order to generate screen data such as the touch screen 100 and the file storage screen 200.

なお、データ記憶領域には、情報処理プログラムの実行に必要な他のデータが記憶されたり、情報処理プログラムの実行に必要なタイマ(カウンタ)やレジスタが設けられたりする。   In the data storage area, other data necessary for executing the information processing program is stored, and a timer (counter) and a register necessary for executing the information processing program are provided.

図8は図1に示したCPU12の手書き制御処理を示すフロー図である。図8を参照して、CPU12は、手書き制御処理を開始すると、手書き入力モードを設定し、ステップS1で、初期処理を実行する。初期処理では、データ記憶領域70のタッチ座標データ72や認識文字データ78を消去したり、枠データ76をデフォルト値に設定したり、画像生成データ80を不揮発性のメモリから読み出したりする。   FIG. 8 is a flowchart showing the handwriting control process of the CPU 12 shown in FIG. Referring to FIG. 8, when CPU 12 starts the handwriting control process, CPU 12 sets a handwriting input mode, and executes an initial process in step S1. In the initial processing, the touch coordinate data 72 and the recognized character data 78 in the data storage area 70 are deleted, the frame data 76 is set to a default value, and the image generation data 80 is read from the nonvolatile memory.

次のステップS3では、初期のタッチ画面100をディスプレイ20の表示面に表示する。つまり、CPU12の指示の下、描画コントローラ18によって、図3(A)に示したような初期のタッチ画面100がディスプレイ20の表示面に表示される。このとき、枠データ76に従ってタッチ画面100の所定の位置に所定の範囲の枠106が表示され、その中に「ファイル名」の文字列が表示される。   In the next step S <b> 3, the initial touch screen 100 is displayed on the display surface of the display 20. That is, under the instruction of the CPU 12, the initial touch screen 100 as shown in FIG. 3A is displayed on the display surface of the display 20 by the drawing controller 18. At this time, a frame 106 in a predetermined range is displayed at a predetermined position on the touch screen 100 in accordance with the frame data 76, and a character string “file name” is displayed therein.

続くステップS5では、後述する文字認識処理(図9参照)を実行する。詳細は後述するが、文字認識処理では、タッチ画面100に設けられた枠106内の手書き文字が文字認識され、文字認識の結果(認識文字)がファイル名として保存される。   In the subsequent step S5, a character recognition process (see FIG. 9) described later is executed. Although details will be described later, in the character recognition process, handwritten characters in the frame 106 provided on the touch screen 100 are character-recognized, and the character recognition result (recognized character) is stored as a file name.

続いて、ステップS7では、保存ボタンが押された(オンされた)かどうかを判断する。つまり、CPU12は、タッチパネル16から入力されたタッチ座標データに対応するタッチ位置が、ボタン画像102bが表示された領域を指示するかどうかを判断する。以下、ボタン画像が押されたかどうかを判断する場合について同様である。   Subsequently, in step S7, it is determined whether or not the save button has been pressed (turned on). That is, the CPU 12 determines whether or not the touch position corresponding to the touch coordinate data input from the touch panel 16 indicates the area where the button image 102b is displayed. The same applies to the case where it is determined whether or not the button image has been pressed.

ステップS7で“NO”であれば、つまり保存ボタンが押されていなければ、ステップS9で、手書き入力中であるかどうかを判断する。つまり、CPU12は、タッチパネル16からタッチ座標データが出力され、ボタン画像102a、102b、104a、104bがオンされていない状態であるかどうかを判断する。   If “NO” in the step S7, that is, if the save button is not pressed, it is determined whether or not a handwriting input is being performed in a step S9. That is, the CPU 12 determines whether or not the touch coordinate data is output from the touch panel 16 and the button images 102a, 102b, 104a, and 104b are not turned on.

ステップS9で“NO”であれば、つまり手書き入力中でなければ、そのままステップS7に戻る。一方、ステップS9で“YES”であれば、つまり手書き入力中であれば、ステップS11で、タッチパネル16から出力された現在のタッチ座標データをデータ記憶領域70に書き込む。つまり、手書き入力データ74としてタッチ座標データが時系列に従って記憶される。そして、ステップS13で、手書き文字を描画して、ステップS7に戻る。ここでは、CPU12の指示の下、描画コントローラ18は、タッチ座標データが示す位置に点を描画する。したがって、手書き入力中では、複数の点によって線(軌跡)が描画され、一本または複数の線によって文字が描画される。   If “NO” in the step S9, that is, if handwriting input is not being performed, the process returns to the step S7 as it is. On the other hand, if “YES” in the step S9, that is, if handwriting input is being performed, the current touch coordinate data output from the touch panel 16 is written in the data storage area 70 in a step S11. That is, the touch coordinate data is stored as handwritten input data 74 in time series. In step S13, handwritten characters are drawn, and the process returns to step S7. Here, under the instruction of the CPU 12, the drawing controller 18 draws a point at the position indicated by the touch coordinate data. Therefore, during handwriting input, a line (trajectory) is drawn by a plurality of points, and a character is drawn by one or a plurality of lines.

また、ステップS7で“YES”であれば、つまり保存ボタンが押されれば、ステップS15で、後述する保存処理(図10参照)を実行して、手書き制御処理を終了する。   If “YES” in the step S7, that is, if the save button is pressed, a save process (see FIG. 10) described later is executed in a step S15, and the handwriting control process is ended.

図9は図8に示したステップS5の文字認識処理のフロー図である。以下、文字認識処理について説明するが、図8の手書き制御処理で説明した処理と同じ内容の処理については簡単に説明することにする。   FIG. 9 is a flowchart of the character recognition process in step S5 shown in FIG. Hereinafter, although the character recognition process will be described, a process having the same contents as the process described in the handwriting control process of FIG. 8 will be briefly described.

図9に示すように、CPU12は、文字認識処理を開始すると、ステップS31で、手書き入力中かどうかを判断する。ステップS31で“NO”であれば、つまり手書き入力中でなければ、そのままステップS31に戻る。一方、ステップS31で“YES”であれば、ステップS33で、タッチ座標を記憶し、ステップS35で、手書き文字を描画して、ステップS37に進む。   As shown in FIG. 9, when starting the character recognition process, the CPU 12 determines whether or not handwriting is being input in step S31. If “NO” in the step S31, that is, if handwriting input is not being performed, the process returns to the step S31 as it is. On the other hand, if “YES” in the step S31, the touch coordinates are stored in a step S33, a handwritten character is drawn in a step S35, and the process proceeds to a step S37.

なお、枠106内の手書き入力が検出された場合に、適宜のタイミングで、枠106の中の「ファイル名」の文字は消去される。   When handwritten input in the frame 106 is detected, the characters “file name” in the frame 106 are deleted at an appropriate timing.

ステップS37では、手書き入力が枠106内であるかどうかを判断する。ここでは、CPU12は、枠データ76を参照して、現在のタッチ座標データに対応するタッチ座標が枠106内であるかどうかを判断する。ステップS37で“YES”であれば、手書き入力が枠106内であると判断して、そのままステップS31に戻る。   In step S37, it is determined whether or not the handwritten input is within the frame 106. Here, the CPU 12 refers to the frame data 76 to determine whether or not the touch coordinates corresponding to the current touch coordinate data are within the frame 106. If “YES” in the step S37, it is determined that the handwritten input is within the frame 106, and the process returns to the step S31 as it is.

一方、ステップS37で“NO”であれば、つまり手書き入力が枠106外であれば、ステップS39で、枠内の手書き文字を文字認識する。そして、ステップS41で、文字認識に成功したかどうかを判断する。ステップS39で“YES”であれば、つまり文字認識に成功すれば、ステップS43で、認識文字を表示領域110に表示し、ステップS45で、認識文字をファイル名として保存し、文字認識処理をリターンする。ステップS43では、図4(A)に示したように、表示領域110に認識結果(認識文字)が表示される。また、ステップS45では、CPU12は、認識文字に対応するテキストデータを認識文字データ78としてデータ記憶領域70に記憶される。   On the other hand, if “NO” in the step S37, that is, if the handwritten input is outside the frame 106, the handwritten character in the frame is recognized in step S39. In step S41, it is determined whether the character recognition is successful. If “YES” in the step S39, that is, if the character recognition is successful, the recognized character is displayed in the display area 110 in a step S43, the recognized character is saved as a file name in a step S45, and the character recognition process is returned. To do. In step S43, the recognition result (recognized character) is displayed in the display area 110 as shown in FIG. In step S <b> 45, the CPU 12 stores the text data corresponding to the recognized character as the recognized character data 78 in the data storage area 70.

一方、ステップS41で“NO”であれば、つまり文字認識に失敗すれば、ステップS47で、表示領域110にエラーメッセージを表示して、文字認識処理をリターンする。つまり、ステップS47では、図6に示したように、CPU12は、文字認識に失敗した旨のメッセージが表示される。   On the other hand, if “NO” in the step S41, that is, if the character recognition fails, an error message is displayed in the display area 110 in a step S47, and the character recognition process is returned. That is, in step S47, as shown in FIG. 6, the CPU 12 displays a message indicating that character recognition has failed.

なお、ステップS47の処理が実行されたときに、直前までに検出されたタッチ座標データはすべて消去される。   Note that when the process of step S47 is executed, all touch coordinate data detected immediately before is erased.

図10は図8に示したステップS15の保存処理のフロー図である。図10に示すように、CPU12は、保存処理を開始すると、ステップS61で、認識文字が保存されているかどうかを判断する。つまり、CPU12は、認識文字データ78がデータ記憶領域70に記憶されているかどうかを判断する。   FIG. 10 is a flowchart of the storage process in step S15 shown in FIG. As shown in FIG. 10, when the CPU 12 starts the storage process, it determines whether or not the recognized character is stored in step S61. That is, the CPU 12 determines whether the recognized character data 78 is stored in the data storage area 70.

ステップS61で“YES”であれば、つまり認識文字が保存されていれば、ステップS63で、認識文字を用いてファイル名を作成し、ステップS67に進む。したがって、ステップS63においては、認識文字に、ピリオドと拡張子(たとえば、“***”)の文字列を付加したファイル名が作成される。   If “YES” in the step S61, that is, if a recognized character is stored, a file name is created using the recognized character in a step S63, and the process proceeds to a step S67. Therefore, in step S63, a file name is created by adding a character string of a period and an extension (for example, “***”) to the recognized character.

一方、ステップS61で“NO”であれば、つまり認識文字が保存されていなければ、ステップS65で、自動的に設定された文字列でファイル名を作成し、ステップS67に進む。たとえば、ステップS65では、日付および時刻についての数値により、ファイル名が自動的に作成される。具体的には、2013年9月19日の19時59分にファイル名を作成する場合には、“20130919_1959.***”のようなファイル名が作成される。なお、CPU12は、日付および時刻を、情報処理装置10内部に設けられたRTCから取得する。   On the other hand, if “NO” in the step S61, that is, if the recognized character is not stored, a file name is created by the automatically set character string in a step S65, and the process proceeds to the step S67. For example, in step S65, the file name is automatically created based on the numerical values for the date and time. Specifically, when a file name is created at 19:59 on September 19, 2013, a file name such as “20130919 — 1959. ***” is created. The CPU 12 acquires the date and time from the RTC provided in the information processing apparatus 10.

ステップS67では、図5に示したように、タッチ画面100の前面に保存画面200を表示する。このとき、表示領域202に、ステップS63またはS65で作成されたファイル名が表示される。続いて、ステップS69では、保存の実行かどうかを判断する。ここでは、CPU12は、保存画面200のボタン画像204aが押されたかどうかを判断する。ステップS69で“NO”であれば、つまり保存の実行でなければ、ステップS71で、ファイル名の変更かどうかを判断する。ここでは、CPU12は、保存画面200のボタン画像204bが押されたかどうかを判断する。   In step S67, the save screen 200 is displayed on the front surface of the touch screen 100 as shown in FIG. At this time, the file name created in step S63 or S65 is displayed in the display area 202. Subsequently, in step S69, it is determined whether or not to execute storage. Here, the CPU 12 determines whether or not the button image 204a on the save screen 200 has been pressed. If “NO” in the step S69, that is, if the saving is not executed, it is determined whether or not the file name is changed in a step S71. Here, the CPU 12 determines whether or not the button image 204b on the save screen 200 has been pressed.

ステップS71で“NO”であれば、つまりファイル名の変更でなければ、そのままステップS69に戻って、保存またはファイル名の変更などの指示を待機する。一方、ステップS71で“YES”であれば、つまりファイル名の変更であれば、ステップS73で、ファイル名を変更して、ステップS69に戻る。たとえば、ステップS73では、タッチ画面100の前面であって、保存画面200が表示されていない領域に、ソフトウェアのキーボードをディスプレイ20に表示し、ユーザの操作に従って、ファイル名を変更する処理が実行される。   If “NO” in the step S71, that is, if the file name is not changed, the process returns to the step S69 as it is to wait for an instruction to save or change the file name. On the other hand, if “YES” in the step S71, that is, if the file name is changed, the file name is changed in a step S73, and the process returns to the step S69. For example, in step S73, a software keyboard is displayed on the display 20 in an area on the front surface of the touch screen 100 where the save screen 200 is not displayed, and the file name is changed according to the user's operation. The

また、ステップS69で“YES”であれば、つまり保存の実行であれば、ステップS75で、手書き画像を保存して、手書き制御処理にリターンする。ステップS75では、CPU12は、タッチ画面100に描画された手書き画像に対応する画像データに保存画面200の表示領域202に表示されたファイル名を付して、不揮発性のメモリに保存する。   If “YES” in the step S69, that is, if the saving is executed, the handwritten image is saved in a step S75, and the process returns to the handwriting control process. In step S75, the CPU 12 attaches the file name displayed in the display area 202 of the storage screen 200 to the image data corresponding to the handwritten image drawn on the touch screen 100, and stores the image data in the nonvolatile memory.

この第1実施例によれば、手書き文字を含む手書き画像の画像データを保存する場合に、所定の枠内に手書きした文字を用いたファイル名を付けるので、別にファイル名を入力する必要が無く、簡単にファイル名を付すことができる。   According to the first embodiment, when image data of a handwritten image including handwritten characters is stored, a file name using handwritten characters is attached within a predetermined frame, so that there is no need to input a file name separately. You can easily give a file name.

また、第1実施例によれば、所定の枠内にファイル名に使用する文字を手書きし、続いて枠外に文字を手書きする場合に、自動的に枠内の文字が文字認識されるので、ユーザの手を煩わすことが無い。つまり、使い勝手が良い。   In addition, according to the first embodiment, when a character used for a file name is handwritten in a predetermined frame and subsequently a character is handwritten outside the frame, the character in the frame is automatically recognized. The user's hand is not bothered. In other words, it is easy to use.

さらに、第1実施例によれば、議題のような最初に手書きされる文字ないし文字列をファイル名として付すことができるので、後の管理や検索に適したファイル名を付すことができる。   Furthermore, according to the first embodiment, the first handwritten character or character string such as the agenda can be attached as the file name, so that a file name suitable for later management and search can be attached.

なお、この第1実施例では、枠外へのタッチ入力を検出したときに、枠内の手書き文字を文字認識するようにしたが、これに限定される必要はない。たとえば、現在のページとは異なるページ(ページ送り、ページ戻し)に移動したり、新規のページを開いたりする場合に、枠内の手書き文字を文字認識するようにしてもよい。かかる場合にも、ページ送り、ページ戻し、または、新規ページを開くような通常の操作に応じて文字認識されるので、ユーザの手を煩わすことがない。また、この場合には、別のページを表示するタイミングで枠内の文字が文字認識されるため、枠内から文字を書き始める必要が無い。したがって、たとえば、ページを送るタイミングまでに枠内に文字が書かれていれば良く、ファイル名を書くタイミングの自由度が増す。   In the first embodiment, when touch input outside the frame is detected, the handwritten character in the frame is recognized. However, the present invention is not limited to this. For example, when moving to a page (page advance, page back) different from the current page or opening a new page, the handwritten characters in the frame may be recognized. Even in such a case, characters are recognized in accordance with a normal operation such as page-forwarding, page-returning, or opening a new page, so that the user's hand is not bothered. In this case, since the characters in the frame are recognized at the timing of displaying another page, there is no need to start writing characters from within the frame. Therefore, for example, it suffices if characters are written in the frame before the page is sent, and the degree of freedom in writing the file name is increased.

このような場合には、図11に示すように、図9に示した文字認識処理の一部が変更される。簡単に説明すると、CPU12は、ステップS35で手書き文字を描画すると、ステップS37aで、別のページを表示するかどうかを判断する。ここでは、CPU12は、ボタン104aまたはボタン104bが押されたり、新規ページを開くことが指示されたりしたかどうかを判断する。   In such a case, as shown in FIG. 11, a part of the character recognition process shown in FIG. 9 is changed. In brief, when the CPU 12 draws a handwritten character in step S35, the CPU 12 determines whether to display another page in step S37a. Here, the CPU 12 determines whether the button 104a or the button 104b has been pressed or an instruction to open a new page has been issued.

ステップS37aで“NO”であれば、つまり別のページを表示しない場合には、そのままステップS31に戻る。一方、ステップS37aで“YES”であれば、つまり別のページを表示する場合には、ステップS39で、枠内の手書き文字を文字認識する。   If “NO” in the step S37a, that is, if another page is not displayed, the process returns to the step S31 as it is. On the other hand, if “YES” in the step S37a, that is, if another page is displayed, the handwritten characters in the frame are recognized in step S39.

なお、別のページを表示することが指示された場合には、図8に示すステップS5の処理の後に、当該別のページについてのタッチ画面100がディスプレイ20に表示される。   When an instruction to display another page is given, the touch screen 100 for the other page is displayed on the display 20 after the process of step S5 shown in FIG.

また、この第1実施例では、枠外への手書き入力や別のページの表示の指示が入力された場合に、枠内の手書き文字を文字認識するようにしたが、枠内への手書き入力が無くなった状態が所定時間(たとえば、30秒〜1分)を経過した場合に、枠内の手書き文字を文字認識するようにしてもよい。
[第2実施例]
第2実施例の情報処理装置10は、枠106の位置および大きさをタッチ画面100の範囲内で任意に指定できる以外は、第1実施例の情報処理装置10と同じであるため、異なる内容について説明し、重複した説明については省略することにする。なお、この第2実施例の情報処理装置10では、ユーザが枠106を指定するため、手書き制御処理が開始されたときに表示される初期のタッチ画面100には枠106は表示されない。
In the first embodiment, when a handwriting input outside the frame or an instruction to display another page is input, the handwritten character in the frame is recognized. When a predetermined time (for example, 30 seconds to 1 minute) has passed, the handwritten character in the frame may be recognized.
[Second Embodiment]
The information processing apparatus 10 according to the second embodiment is the same as the information processing apparatus 10 according to the first embodiment except that the position and size of the frame 106 can be arbitrarily specified within the range of the touch screen 100. Will be described, and redundant description will be omitted. In the information processing apparatus 10 of the second embodiment, since the user designates the frame 106, the frame 106 is not displayed on the initial touch screen 100 displayed when the handwriting control process is started.

図12(A)に示すように、第2実施例では、タッチ画面100において、ボタン画像102a、102b、…の下側に、ボタン画像108aがさらに表示される。このボタン画像108aは、ファイル名に使用する文字を手書き入力するために用いられる。具体的には、図12(A)に示すように、ボタン画像108aがタッチされると、ファイル名に使用する文字を手書きすることが指示され、図12(B)に示すように、ペン120を用いて枠106を指定することができる。図12(B)からも分かるように、ペン120を右斜め下方向に移動させるようにドラッグすると、タッチオンの位置とタッチオフの位置とで枠106が指定(設定)され、タッチ画面100に、枠106が表示される。このとき、ボタン画像108aに代えてボタン画像108bがタッチ画面100に表示される。このボタン画像108bは、枠106内の手書き文字を文字認識し、認識文字を記憶するために用いられる。   As shown in FIG. 12A, in the second embodiment, a button image 108a is further displayed below the button images 102a, 102b,... The button image 108a is used for handwritten input of characters used for the file name. Specifically, as shown in FIG. 12A, when the button image 108a is touched, it is instructed to hand-write characters used for the file name, and as shown in FIG. The frame 106 can be specified using. As can be seen from FIG. 12B, when the pen 120 is dragged to move diagonally downward to the right, the frame 106 is designated (set) by the touch-on position and the touch-off position, and the frame is displayed on the touch screen 100. 106 is displayed. At this time, the button image 108b is displayed on the touch screen 100 instead of the button image 108a. The button image 108b is used for character recognition of handwritten characters in the frame 106 and storing the recognized characters.

なお、この第2実施例では、ファイル名ボタン108aに代えて変換ボタン108bを表示するようにしたが、変換ボタン108bを追加的に表示してもよい。   In the second embodiment, the conversion button 108b is displayed instead of the file name button 108a. However, the conversion button 108b may be additionally displayed.

ユーザは、枠106を指定すると、図13(A)に示すように、枠106内に文字を手書きする。ただし、ボタン画像108bが押されると、枠106内の文字が文字認識されるため、枠106を指定した直後に枠106内に文字を手書きする必要はない。枠106内に文字を手書きした後に、ボタン画像108bが押されると、図13(B)に示すように、枠106内の手書き文字が文字認識され、認識結果が表示領域110に表示される。なお、文字認識に失敗した場合については、第1実施例で示した場合と同様である。   When the user designates the frame 106, the user handwrites characters in the frame 106 as shown in FIG. However, since the characters in the frame 106 are recognized when the button image 108b is pressed, it is not necessary to hand-write the characters in the frame 106 immediately after the frame 106 is designated. When the button image 108b is pressed after handwriting a character in the frame 106, the handwritten character in the frame 106 is recognized as shown in FIG. 13B, and the recognition result is displayed in the display area 110. Note that the case where the character recognition fails is the same as the case shown in the first embodiment.

図14は、この第2実施例におけるCPU12の手書き制御処理を示すフロー図である。以下、図14に示す手書き制御処理について説明するが、第1実施例の手書き制御処理で説明した処理と同じ処理については簡単に説明する。   FIG. 14 is a flowchart showing the handwriting control process of the CPU 12 in the second embodiment. Hereinafter, although the handwriting control process shown in FIG. 14 will be described, the same process as the process described in the handwriting control process of the first embodiment will be briefly described.

図14に示すように、CPU12は、手書き制御処理を開始すると、ステップS111で初期処理を実行する。ただし、ここでは、枠データ76も消去される。次に、ステップS113で、初期のタッチ画面100をディスプレイ20に表示する。ただし、この初期のタッチ画面100では、枠106は表示されないが、ファイル名ボタン、すなわちボタン画像108aがボタン画像102a、102b、…の下側に表示される。   As shown in FIG. 14, when starting the handwriting control process, the CPU 12 executes an initial process in step S111. However, the frame data 76 is also deleted here. Next, in step S113, the initial touch screen 100 is displayed on the display 20. However, on the initial touch screen 100, the frame 106 is not displayed, but the file name button, that is, the button image 108a is displayed below the button images 102a, 102b,.

続くステップS115では、ファイル名ボタンが押されたかどうかを判断する。ステップS115で“NO”であれば、つまりファイル名ボタンが押されていなければ、そのままステップS123に進む。   In a succeeding step S115, it is determined whether or not the file name button is pressed. If “NO” in the step S115, that is, if the file name button is not pressed, the process proceeds to a step S123 as it is.

一方、ステップS115で“YES”であれば、つまりファイル名ボタンが押されれば、ステップS117で、ファイル名ボタンに代えて変換ボタンを表示し、ステップS119で、後述する枠指定処理(図15参照)を実行し、ステップS121で、後述する文字認識処理(図16参照)を実行してからステップS123に進む。   On the other hand, if “YES” in the step S115, that is, if the file name button is pressed, a conversion button is displayed in place of the file name button in a step S117, and a frame designation process described later (FIG. 15) is performed in a step S119. In step S121, a character recognition process (see FIG. 16), which will be described later, is executed, and then the process proceeds to step S123.

ステップS123では、保存ボタンが押されたかどうかを判断する。ステップS123で“NO”であれば、ステップS125で、タッチ入力中かどうかを判断する。ステップS125で“NO”であれば、そのままステップS115に戻る。一方、ステップS125で“YES”であれば、ステップS127で、タッチ座標を記憶し、ステップS129で、手書き文字を描画して、ステップS115に戻る。   In step S123, it is determined whether the save button has been pressed. If “NO” in the step S123, it is determined whether or not a touch input is being performed in a step S125. If “NO” in the step S125, the process returns to the step S115 as it is. On the other hand, if “YES” in the step S125, the touch coordinates are stored in a step S127, a handwritten character is drawn in a step S129, and the process returns to the step S115.

また、ステップS123で“YES”であれば、ステップS131で、保存処理を実行して、手書き制御処理を終了する。このステップS131の保存処理は、第1実施例において図10を用いて説明した内容と同じであるため、重複した説明は省略する。   If “YES” in the step S123, a storing process is executed in a step S131, and the handwriting control process is ended. The storage process in step S131 is the same as that described with reference to FIG. 10 in the first embodiment, and thus a duplicate description is omitted.

図15は、図14に示したステップS119の枠指定処理のフロー図である。図15に示すように、CPU12は、枠指定処理を開始すると、ステップS131で、始点が指定されたか否かを判断する。つまり、CPU12は、タッチパネル16からタッチ座標データが出力されていない状態からタッチ座標データが出力される状態に変化したかどうかを判断する。   FIG. 15 is a flowchart of the frame designation process in step S119 shown in FIG. As shown in FIG. 15, when starting the frame designation process, the CPU 12 determines whether or not the start point is designated in step S131. That is, the CPU 12 determines whether or not the touch coordinate data is not output from the touch panel 16 and the touch coordinate data is output.

ステップS131で“NO”であれば、つまり始点が指示されていなければ、そのまま同じステップS131に戻る。一方、ステップS131で“YES”であれば、つまり始点が指示されると、ステップS133で、指示された始点の座標を記憶する。ここでは、枠データ76における一点の座標データが記憶される。次のステップS135では、終点が指定されたかどうかを判断する。ここでは、CPU12は、タッチパネル16からタッチ座標が出力されている状態からタッチ座標データ出力されていない状態に変化したかどうかを判断する。   If “NO” in the step S131, that is, if the start point is not designated, the process returns to the same step S131 as it is. On the other hand, if “YES” in the step S131, that is, if the start point is instructed, the coordinates of the instructed start point are stored in a step S133. Here, the coordinate data of one point in the frame data 76 is stored. In the next step S135, it is determined whether an end point has been designated. Here, the CPU 12 determines whether or not the state where the touch coordinates are output from the touch panel 16 is changed to the state where the touch coordinate data is not output.

ステップS135で“NO”であれば、つまり終点が指示されていなければ、ステップS137で、始点と現在のタッチ位置で規定される枠106をタッチ画面100上に表示して、ステップS135に戻る。一方、ステップS135で“YES”であれば、つまり終点が指示されれば、ステップS139で、指示された終点の座標を記憶する。ここでは、枠データ76における他の点の座標データが記憶される。したがって、枠データ76が決定(指定)される。そして、ステップS141で、始点と終点で規定される枠106を表示して、手書き制御処理にリターンする。   If “NO” in the step S135, that is, if the end point is not instructed, the frame 106 defined by the start point and the current touch position is displayed on the touch screen 100 in a step S137, and the process returns to the step S135. On the other hand, if “YES” in the step S135, that is, if an end point is designated, the coordinates of the designated end point are stored in a step S139. Here, the coordinate data of other points in the frame data 76 is stored. Therefore, the frame data 76 is determined (designated). In step S141, the frame 106 defined by the start point and the end point is displayed, and the process returns to the handwriting control process.

図16は、図14に示したステップS121の文字認識処理のフロー図である。この文字認識処理は、第1実施例において図9を用いて説明した内容と同じであるため、重複した説明は省略する。図16に示すように、この第2実施例の文字認識処理では、ステップS37に代えてステップS37bが設けられる。つまり、CPU12は、ステップS35で手書き画像を描画すると、ステップS37bで、変換ボタンが押されたかどうかを判断する。   FIG. 16 is a flowchart of the character recognition process in step S121 shown in FIG. Since this character recognition process is the same as that described with reference to FIG. 9 in the first embodiment, a duplicate description is omitted. As shown in FIG. 16, in the character recognition process of the second embodiment, step S37b is provided instead of step S37. That is, when the CPU 12 draws the handwritten image in step S35, the CPU 12 determines whether or not the conversion button is pressed in step S37b.

ステップS37bで“NO”であれば、つまり変換ボタンが押されていなければ、そのままステップS31に戻る。したがって、文字の手書きが続行される。一方、ステップS37で“YES”であれば、つまり変換ボタンが押されれば、ステップS39で、枠106内の手書き文字を文字認識する。   If “NO” in the step S37b, that is, if the conversion button is not pressed, the process returns to the step S31 as it is. Therefore, the handwriting of characters is continued. On the other hand, if “YES” in the step S37, that is, if the conversion button is pressed, the handwritten characters in the frame 106 are recognized in step S39.

この第2実施例によれば、ユーザが枠を指定し、変換ボタンが押されたタイミングで枠内の手書き文字を文字認識して、ファイル名に使用するので、ファイル名に使用する文字を入力するタイミング、位置および範囲を任意に設定することができる。   According to the second embodiment, the user designates a frame, recognizes the handwritten characters in the frame at the timing when the conversion button is pressed, and uses them for the file name. The timing, position, and range to be set can be arbitrarily set.

また、第2実施例によれば、第1実施例と同様に、手書き文字を含む手書き画像の画像データを保存する場合に、所定の枠内に手書きした文字を用いたファイル名を付けるので、別にファイル名を入力する必要が無く、簡単にファイル名を付すことができる。   In addition, according to the second embodiment, as in the first embodiment, when saving image data of a handwritten image including handwritten characters, a file name using handwritten characters in a predetermined frame is attached. There is no need to input a separate file name, and the file name can be easily assigned.

なお、この第2実施例では、変換ボタンが押されたタイミングで枠内の文字を文字認識するようにしたが、これに限定される必要はない。たとえば、枠を指定した後、直ぐに、当該枠内に文字を手書きさせ、枠内の文字を文字認識するようにした場合には、第1実施例と同様に、枠内に文字を手書きした後に、枠外に手書きしたり、別のページを表示することを指示したりしたタイミングで、文字認識するようにしてもよい。   In the second embodiment, the characters in the frame are recognized when the conversion button is pressed. However, the present invention is not limited to this. For example, when a character is handwritten in the frame immediately after the frame is specified and the character in the frame is recognized, the character is handwritten in the frame as in the first embodiment. The character may be recognized at a timing when handwriting is performed outside the frame or an instruction to display another page is given.

また、枠を指定した後、直ぐに、当該枠内に文字を手書きさせ、枠内の文字を文字認識するようにした場合には、枠内への手書き入力が無くなった状態が所定時間(たとえば、30秒〜1分)を経過した場合に、枠内の手書き文字を文字認識するようにしてもよい。
[第3実施例]
この第3実施例の情報処理装置10は、タッチ画面100に枠106を表示せず、手書き入力を検出しなくなり、この状態が継続している時間が所定時間を超えた場合に、それまでに手書き入力されたすべての手書き文字を文字認識するようにした以外は、第1実施例の情報処理装置10と同じであるため、異なる内容について説明し、重複した説明については省略することにする。
In addition, immediately after designating a frame, when a character is handwritten in the frame and the character in the frame is recognized, the state in which no handwriting input is made in the frame is a predetermined time (for example, When 30 seconds to 1 minute) elapses, the handwritten characters in the frame may be recognized.
[Third embodiment]
The information processing apparatus 10 according to the third embodiment does not display the frame 106 on the touch screen 100 and does not detect the handwritten input, and when the time during which this state continues exceeds a predetermined time, Since the information processing apparatus 10 is the same as the information processing apparatus 10 of the first embodiment except that all handwritten characters input by handwriting are recognized, different contents will be described and redundant description will be omitted.

図17(A)は、タッチ画面100が表示され、文字が手書きされた様子の一例を示す。ユーザが文字を手書きし、手書き入力が無くなった状態が所定時間(たとえば、30秒〜1分)を経過すると、それまでに手書きされたすべての手書き文字が文字認識される。文字認識に成功すると、図17(B)に示すように、文字認識の認識結果が表示領域110に表示される。   FIG. 17A shows an example in which the touch screen 100 is displayed and characters are handwritten. When the user has handwritten characters and no handwritten input has passed for a predetermined time (for example, 30 seconds to 1 minute), all handwritten characters handwritten so far are recognized. When the character recognition is successful, the recognition result of the character recognition is displayed in the display area 110 as shown in FIG.

この第3実施例の情報処理装置10では、タッチ画面100に枠106が表示されない点と文字認識処理の一部が異なる以外は、第1実施例の手書き制御処理(図8)と同じである。したがって、ここでは、第3実施例の文字認識処理について図面を用いて説明することにする。ただし、既に説明した処理と同じ処理については、簡単に説明することにする。   The information processing apparatus 10 of the third embodiment is the same as the handwriting control process (FIG. 8) of the first embodiment except that the frame 106 is not displayed on the touch screen 100 and a part of the character recognition process is different. . Therefore, here, the character recognition processing of the third embodiment will be described with reference to the drawings. However, the same processing as already described will be briefly described.

図18は、第3実施例における文字認識処理を示すフロー図である。図18に示すように、CPU12は、文字認識処理を開始すると、ステップS30で、タイマをリセットする。つまり、タイマ値を0に設定する。なお、タイマとしては、データ記憶領域70に設けられるタイマを使用することができる。次のステップS31では、手書き入力中かどうかを判断し、“YES”であれば、ステップS33で、タッチ座標を記憶し、ステップS35で、手書き文字を描画して、ステップS30に戻る。   FIG. 18 is a flowchart showing character recognition processing in the third embodiment. As shown in FIG. 18, when starting the character recognition process, the CPU 12 resets the timer in step S30. That is, the timer value is set to 0. As a timer, a timer provided in the data storage area 70 can be used. In the next step S31, it is determined whether or not handwriting is being input. If “YES”, the touch coordinates are stored in step S33, handwritten characters are drawn in step S35, and the process returns to step S30.

一方、ステップS31で“NO”であれば、ステップS32で、タイマをカウントアップし、ステップS34で、カウント値が所定時間を超えたかどうかを判断する。ステップS34で“NO”であれば、つまりカウント値が所定時間を超えていなければ、手書き入力が無くなってから所定時間を経過していないと判断し、ステップS31に戻る。一方、ステップS34で“YES”であれば、つまりカウント値が所定時間を超えると、手書き入力が無くなってから所定時間を経過したと判断し、ステップS39aで、すべての手書き文字を文字認識する。   On the other hand, if “NO” in the step S31, the timer is counted up in a step S32, and it is determined whether or not the count value exceeds a predetermined time in a step S34. If “NO” in the step S34, that is, if the count value does not exceed the predetermined time, it is determined that the predetermined time has not elapsed since the handwritten input is lost, and the process returns to the step S31. On the other hand, if “YES” in the step S34, that is, if the count value exceeds a predetermined time, it is determined that the predetermined time has passed since the handwriting input is lost, and all handwritten characters are recognized in a step S39a.

なお、ステップS41以降の処理は、第1実施例の文字認識処理と同じであるため、重複した説明は省略する。   Since the processing after step S41 is the same as the character recognition processing of the first embodiment, a duplicate description is omitted.

この第3実施例によれば、手書き入力がされた後に、所定時間を超えて手書き入力の無い状態が継続した場合に、それまでに入力されたすべての手書き文字を文字認識するので、ユーザの手を煩わすことなく、簡単にファイル名を付すことができる。   According to the third embodiment, when handwritten input is continued for a predetermined time after handwritten input, all the handwritten characters input so far are recognized as characters. You can easily add file names without bothering you.

たとえば、会議において、議題を電子黒板に手書きし、その後、議論が開始されるまでの間に所定時間を経過すれば、先に手書きしておいた議題を議事録のデータを保存するときのファイル名に使用することができる。   For example, in a meeting, if the agenda is handwritten on the electronic blackboard and then a predetermined time elapses before the discussion starts, the file used to save the minutes data that was handwritten earlier Can be used for names.

なお、第3実施例では、第1実施例および第2実施例とは異なり、枠を表示せず、また所定時間を経過したときに文字認識が開始されるため、文字認識中では、文字認識中であることをテキストで表示したり、手書き文字の色を変化させたり、手書き文字を点滅させたりしてもよい。
[第4実施例]
第4実施例の情報処理装置10は、手書き文字を囲むように枠106を指定し、手書き画像の画像データを保存する際に枠106内の手書き文字を文字認識するようにした以外は、第2実施例と同様であるため、異なる内容について説明し、重複した説明については省略することにする。
In the third embodiment, unlike the first and second embodiments, no frame is displayed and character recognition is started when a predetermined time has elapsed. You may display that it is in text, change the color of a handwritten character, or blink a handwritten character.
[Fourth embodiment]
The information processing apparatus 10 of the fourth embodiment designates the frame 106 so as to surround the handwritten character, and recognizes the handwritten character in the frame 106 when storing the image data of the handwritten image. Since the second embodiment is the same as the second embodiment, different contents will be described, and redundant description will be omitted.

この第4実施例では、第2実施例の場合と同様に、手書き制御処理が開始されたときには、枠106は表示されない。したがって、図19(A)に示すように、枠106が表示されていないタッチ画面100に手書き画像が描画される。手書き入力が或る程度進んだ段階で、ユーザが範囲ボタン(ボタン画像102a)を押すと、図19(B)に示すように、ペン120を用いて枠106を指定することができる。この第4実施例では、手書き文字を囲むようにペン120を用いて枠106を指定する。枠106の指定の方法は、第2実施例の場合と同じである。   In the fourth embodiment, as in the second embodiment, when the handwriting control process is started, the frame 106 is not displayed. Accordingly, as shown in FIG. 19A, a handwritten image is drawn on the touch screen 100 where the frame 106 is not displayed. When the user presses the range button (button image 102a) after the handwriting input has advanced to some extent, the frame 106 can be designated using the pen 120 as shown in FIG. In the fourth embodiment, the frame 106 is designated using the pen 120 so as to surround the handwritten character. The method for designating the frame 106 is the same as in the second embodiment.

続いて、図20に示すように、ユーザは、保存ボタン(ボタン画像102b)を押すと、枠106内の手書き文字が文字認識される。そして、認識結果を用いてファイル名が作成され、図5に示したのと同様の保存画面200がタッチ画面100の前面に表示される。保存処理については、第1実施例の場合と同じである。   Subsequently, as shown in FIG. 20, when the user presses the save button (button image 102b), the handwritten characters in the frame 106 are recognized. Then, a file name is created using the recognition result, and a storage screen 200 similar to that shown in FIG. 5 is displayed on the front surface of the touch screen 100. The storage process is the same as in the first embodiment.

したがって、たとえば、この第4実施例では、議事録を板書する場合のように、文字を手書きし、議事録についてのデータ(手書き画像の画像データ)を保存する段階において、手書き文字からファイル名に使用する手書き文字を選択(指定)することができるのである。   Therefore, for example, in the fourth embodiment, as in the case of writing the minutes of the minutes, the characters are handwritten and the data about the minutes (image data of the handwritten image) is saved to the file name. The handwritten character to be used can be selected (designated).

なお、この第4実施例では、枠106を指定すると、直ぐにデータを保存するようにしてあるが、データを保存せずに、手書き入力を続けた場合には、指定した枠106を解除(消去)して、指定し直すことができるようにしてもよい。   In the fourth embodiment, when the frame 106 is designated, the data is saved immediately. However, if the handwriting input is continued without saving the data, the designated frame 106 is canceled (erased). ) So that it can be specified again.

図21は、第4実施例におけるCPU12の手書き制御処理を示すフロー図である。以下、第4実施例の手書き制御処理について説明するが、既に説明した処理と同じ処理については簡単に説明することにする。   FIG. 21 is a flowchart showing the handwriting control process of the CPU 12 in the fourth embodiment. Hereinafter, the handwriting control process of the fourth embodiment will be described, but the same process as the already described process will be briefly described.

図21に示すように、CPU12は、手書き制御処理を開始すると、ステップS201で初期処理を実行する。ただし、ここでは、枠データ76も消去される。次に、ステップS203で、初期のタッチ画面100をディスプレイ20に表示する。ただし、枠106は表示されない。   As shown in FIG. 21, when starting the handwriting control process, the CPU 12 executes an initial process in step S201. However, the frame data 76 is also deleted here. Next, an initial touch screen 100 is displayed on the display 20 in step S203. However, the frame 106 is not displayed.

続くステップS205では、手書き入力中かどうかを判断し、ここで“NO”であれば、同じステップS205に戻る。一方、ステップS205で“YES”であれば、ステップS207で、タッチ座標を記憶し、ステップS209で、手書き文字を描画する。   In a succeeding step S205, it is determined whether or not handwriting is being input. If “NO” here, the process returns to the same step S205. On the other hand, if “YES” in the step S205, the touch coordinates are stored in a step S207, and handwritten characters are drawn in a step S209.

そして、ステップS211で、範囲ボタンが押されたかどうかを判断する。つまり、CPU12は、ボタン画像102aがタッチされたかどうかを判断する。ステップS211で“NO”であれば、つまり範囲ボタンが押されていなければ、ステップS205に戻る。一方、ステップS211で“YES”であれば、つまり範囲ボタンが押されれば、ステップS213で、枠指定処理を実行する。つまり、ユーザの指示に従って枠データ76がデータ記憶領域70に記憶される。上述したように、この枠指定処理は、第2実施例で図15を用いて説明した場合と同じであるため、詳細な説明は省略する。   In step S211, it is determined whether the range button has been pressed. That is, the CPU 12 determines whether or not the button image 102a has been touched. If “NO” in the step S211, that is, if the range button is not pressed, the process returns to the step S205. On the other hand, if “YES” in the step S211, that is, if the range button is pressed, a frame specifying process is executed in a step S213. That is, the frame data 76 is stored in the data storage area 70 in accordance with a user instruction. As described above, the frame designation process is the same as that described with reference to FIG. 15 in the second embodiment, and thus detailed description thereof is omitted.

そして、ステップS215で、保存ボタンが押されたかどうかを判断する。つまり、CPU12は、ボタン画像102bがタッチされたかどうかを判断する。ステップS215で“NO”であれば、つまり保存ボタンが押されなければ、同じステップS215に戻って、保存ボタンが押されるのを待機する。一方、ステップS215で“YES”であれば、つまり保存ボタンが押されれば、ステップS217で、後述する文字認識処理(図22)を実行し、ステップS219で、保存処理を実行し、手書き制御処理を終了する。上述したように、ステップS219の保存処理は、第1実施例で図10を用いて説明した場合と同じであるため、詳細な説明は省略する。   In step S215, it is determined whether the save button has been pressed. That is, the CPU 12 determines whether or not the button image 102b is touched. If “NO” in the step S215, that is, if the save button is not pressed, the process returns to the same step S215 and waits for the save button to be pressed. On the other hand, if “YES” in the step S215, that is, if the save button is pressed, a character recognition process (FIG. 22) described later is executed in a step S217, a save process is executed in a step S219, and handwriting control is performed. The process ends. As described above, the storage process in step S219 is the same as that described with reference to FIG. 10 in the first embodiment, and thus detailed description thereof is omitted.

図22は、図21に示したステップS217の文字認識処理のフロー図である。この文字認識処理は、第1実施例において図9を用いて説明したステップS39−S47の内容と同じであるため、詳細な説明を省略する。なお、この第4実施例では、手書き入力済みの文字に対して枠指定を行った後に文字認識を行うため、ステップS31−S37は省略される。   FIG. 22 is a flowchart of the character recognition process in step S217 shown in FIG. Since this character recognition processing is the same as the contents of steps S39 to S47 described with reference to FIG. 9 in the first embodiment, detailed description thereof is omitted. In the fourth embodiment, steps S31 to S37 are omitted because character recognition is performed after a frame is specified for characters that have been handwritten.

この第4実施例によれば、ユーザは、文字を手書きした後に、すべての手書き文字のうちから所望の文字を指定して、手書き画像の画像データを保存する際のファイル名に使用することができるので、手書き文字を利用して、簡単にファイル名を付すことができる。   According to the fourth embodiment, after handwriting a character, the user can specify a desired character from all handwritten characters and use it as a file name when saving image data of a handwritten image. Because you can, you can easily name the file using handwritten characters.

なお、第4実施例では、枠を指定した後に、保存ボタンを操作するようにしたが、枠を指定した後に、何ら操作が無い状態で所定時間(たとえば、30秒〜1分)を経過した場合に、枠内の手書き文字を自動的に文字認識して、保存画面を表示するようにしてもよい。   In the fourth embodiment, the save button is operated after the frame is specified. However, after the frame is specified, a predetermined time (for example, 30 seconds to 1 minute) has passed without any operation. In such a case, the saved screen may be displayed by automatically recognizing handwritten characters in the frame.

また、上述の実施例で挙げた具体的な数値、座標系、画面構成等は一例であり、実際の製品に応じて適宜変更することが可能である。   In addition, the specific numerical values, coordinate system, screen configuration, and the like given in the above-described embodiments are examples, and can be appropriately changed according to actual products.

10 …情報処理装置
12 …CPU
14 …メモリ
16 …タッチパネル
18 …描画コントローラ
20 …ディスプレイ
10 ... Information processing device 12 ... CPU
14 ... Memory 16 ... Touch panel 18 ... Drawing controller 20 ... Display

Claims (13)

入力手段を用いて手書きされた文字を含む手書き画像を表示手段の表示面に描画し、当該表示面に描画された手書き画像に対応する画像データを保存する情報処理装置であって、
前記入力手段により指示された前記表示面上の位置の座標を取得する座標取得手段、
前記座標取得手段によって取得された座標に基づいて、前記表示面に描画された手書き文字の全部または一部を所定のタイミングで文字認識する文字認識手段、および
前記文字認識手段の認識結果に対応する文字ないし文字列を前記画像データのファイル名に使用するファイル名作成手段を備える、情報処理装置。
An information processing apparatus that draws a handwritten image including characters handwritten using an input unit on a display surface of a display unit and stores image data corresponding to the handwritten image drawn on the display surface,
Coordinate acquisition means for acquiring coordinates of a position on the display surface instructed by the input means;
Based on the coordinates acquired by the coordinate acquisition means, character recognition means for recognizing all or part of the handwritten characters drawn on the display surface at a predetermined timing, and corresponding to the recognition result of the character recognition means An information processing apparatus comprising file name creation means for using a character or a character string as a file name of the image data.
前記文字認識手段は、前記表示面に設定された所定の範囲内の手書き文字を文字認識する、請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the character recognition means recognizes a handwritten character within a predetermined range set on the display surface. 前記所定の範囲を規定する枠を示す枠画像を前記表示面に表示する枠画像表示手段をさらに備える、請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, further comprising a frame image display unit configured to display a frame image indicating a frame defining the predetermined range on the display surface. 前記所定の範囲は前記表示面内に予め設定されている、請求項2または3に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the predetermined range is preset in the display surface. 前記入力手段からの入力に応じて前記所定の範囲を指定する範囲指定手段をさらに備える、請求項2または3に記載の情報処理装置。   The information processing apparatus according to claim 2, further comprising range specifying means for specifying the predetermined range in response to an input from the input means. 前記文字認識手段は、前記所定の範囲外への手書きが行われたタイミングで前記所定の範囲内の手書き文字を文字認識する、請求項2ないし5のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the character recognition unit recognizes a handwritten character within the predetermined range at a timing when handwriting outside the predetermined range is performed. 前記表示面に表示されたページとは異なるページを表示させるページ操作を検出するページ操作検出手段をさらに備え、
前記文字認識手段は、前記ページ操作が検出されたタイミングで前記所定の範囲内の手書き文字を文字認識する、請求項2ないし5のいずれかに記載の情報処理装置。
A page operation detecting means for detecting a page operation for displaying a page different from the page displayed on the display surface;
The information processing apparatus according to claim 2, wherein the character recognition unit recognizes characters of the handwritten character within the predetermined range at a timing when the page operation is detected.
所定のボタンに対するボタン操作を検出するボタン操作検出手段をさらに備え、
前記文字認識手段は、前記ボタン操作が検出されたタイミングで前記所定の範囲内の手書き文字を文字認識する、請求項2ないし5のいずれかに記載の情報処理装置。
A button operation detecting means for detecting a button operation with respect to a predetermined button;
The information processing apparatus according to claim 2, wherein the character recognizing unit recognizes a handwritten character within the predetermined range at a timing when the button operation is detected.
前記入力手段からの指示が無くなってからの継続時間を計時する計時手段をさらに備え、
前記文字認識手段は、前記継続時間が所定時間を越えたタイミングで前記所定の範囲内の手書き文字を文字認識する、請求項2ないし5のいずれかに記載の情報処理装置。
It further comprises time measuring means for measuring the duration after the instruction from the input means is lost,
The information processing apparatus according to claim 2, wherein the character recognition unit recognizes characters of the handwritten character within the predetermined range at a timing when the duration exceeds a predetermined time.
前記範囲指定手段は、前記入力手段を用いて文字が手書きされた後に前記所定の範囲を指定し、前記文字認識手段は、前記範囲指定手段の指定が終わった後の所定のタイミングで前記所定の範囲内の手書き文字を文字認識する、請求項5に記載の情報処理装置。   The range specifying unit specifies the predetermined range after a character is handwritten using the input unit, and the character recognition unit is configured to specify the predetermined range at a predetermined timing after the specification of the range specifying unit is finished. The information processing apparatus according to claim 5, wherein the handwritten character within the range is recognized. 前記入力手段からの指示が無くなってからの継続時間を計時する計時手段をさらに備え、
前記文字認識手段は、前記継続時間が所定時間を越えたタイミングで前記表示面に描画された手書き文字の全部を文字認識する、請求項1記載の情報処理装置。
It further comprises time measuring means for measuring the duration after the instruction from the input means is lost,
The information processing apparatus according to claim 1, wherein the character recognition means recognizes all of the handwritten characters drawn on the display surface at a timing when the duration time exceeds a predetermined time.
入力手段を用いて手書きされた文字を含む手書き画像を表示手段の表示面に描画し、当該表示面に描画された手書き画像に対応する画像データを保存するコンピュータの情報処理プログラムであって、前記コンピュータを
前記入力手段により指示された前記表示面上の位置の座標を取得する座標取得手段、
前記座標取得手段によって取得された座標に基づいて、前記表示面に描画された手書き文字の全部または一部を所定のタイミングで文字認識する文字認識手段、および
前記文字認識手段の認識結果に対応する文字ないし文字列を前記画像データのファイル名に使用するファイル名作成手段として機能させる、情報処理プログラム。
An information processing program for a computer that draws a handwritten image including characters handwritten using an input means on a display surface of a display means, and stores image data corresponding to the handwritten image drawn on the display surface, Coordinate acquisition means for acquiring coordinates of a position on the display surface instructed by the input means;
Based on the coordinates acquired by the coordinate acquisition means, character recognition means for recognizing all or part of the handwritten characters drawn on the display surface at a predetermined timing, and corresponding to the recognition result of the character recognition means An information processing program for causing a character name or character string to function as a file name creating means for using a file name of the image data.
入力手段を用いて手書きされた文字を含む手書き画像を表示手段の表示面に描画し、当該表示面に描画された手書き画像に対応する画像データを保存するコンピュータの情報処理方法であって、
前記コンピュータは
(a)前記入力手段により指示された前記表示面上の位置の座標を取得し、
(b)前記ステップ(a)において取得した座標に基づいて、前記表示面に描画された手書き文字の全部または一部を所定のタイミングで文字認識し、そして
(c)前記ステップ(b)における認識結果に対応する文字ないし文字列を前記画像データのファイル名に使用する、情報処理方法。
An information processing method for a computer that draws a handwritten image including characters handwritten using an input means on a display surface of a display means, and stores image data corresponding to the handwritten image drawn on the display surface,
The computer (a) obtains the coordinates of the position on the display surface designated by the input means,
(B) Based on the coordinates acquired in the step (a), all or part of the handwritten characters drawn on the display surface are recognized at a predetermined timing, and (c) recognition in the step (b) An information processing method using a character or a character string corresponding to a result as a file name of the image data.
JP2014071931A 2014-03-31 2014-03-31 Information processing apparatus, information processing program, and information processing method Expired - Fee Related JP6276630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014071931A JP6276630B2 (en) 2014-03-31 2014-03-31 Information processing apparatus, information processing program, and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014071931A JP6276630B2 (en) 2014-03-31 2014-03-31 Information processing apparatus, information processing program, and information processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018003075A Division JP6475874B2 (en) 2018-01-12 2018-01-12 Information processing apparatus, information processing program, and information processing method

Publications (2)

Publication Number Publication Date
JP2015194850A true JP2015194850A (en) 2015-11-05
JP6276630B2 JP6276630B2 (en) 2018-02-07

Family

ID=54433818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014071931A Expired - Fee Related JP6276630B2 (en) 2014-03-31 2014-03-31 Information processing apparatus, information processing program, and information processing method

Country Status (1)

Country Link
JP (1) JP6276630B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10671799B2 (en) 2017-03-31 2020-06-02 Dropbox, Inc. Generating digital document content from a digital image

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272797A (en) * 1998-03-20 1999-10-08 Sharp Corp Method and system for portable terminal communication and medium with program for portable terminal communication recorded
JP2000293631A (en) * 1999-04-06 2000-10-20 Sharp Corp Handwritten character input device and method therefor
JP2003216324A (en) * 2002-01-17 2003-07-31 Hitachi Information Technology Co Ltd Input system
JP2013544401A (en) * 2010-12-15 2013-12-12 北京壹人壹本信息科技有限公司 Handwritten original handwriting recording and retrieval system, method, and electronic apparatus

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272797A (en) * 1998-03-20 1999-10-08 Sharp Corp Method and system for portable terminal communication and medium with program for portable terminal communication recorded
JP2000293631A (en) * 1999-04-06 2000-10-20 Sharp Corp Handwritten character input device and method therefor
JP2003216324A (en) * 2002-01-17 2003-07-31 Hitachi Information Technology Co Ltd Input system
JP2013544401A (en) * 2010-12-15 2013-12-12 北京壹人壹本信息科技有限公司 Handwritten original handwriting recording and retrieval system, method, and electronic apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10671799B2 (en) 2017-03-31 2020-06-02 Dropbox, Inc. Generating digital document content from a digital image
JP2020123358A (en) * 2017-03-31 2020-08-13 ドロップボックス, インコーポレイテッド Method of generating digital document content from digital image

Also Published As

Publication number Publication date
JP6276630B2 (en) 2018-02-07

Similar Documents

Publication Publication Date Title
EP3019930B1 (en) Interactive digital displays
CN110058782B (en) Touch operation method and system based on interactive electronic whiteboard
CN109643213B (en) System and method for a touch screen user interface for a collaborative editing tool
US20130191768A1 (en) Method for manipulating a graphical object and an interactive input system employing the same
KR20150014083A (en) Method For Sensing Inputs of Electrical Device And Electrical Device Thereof
US20150154444A1 (en) Electronic device and method
US20140189482A1 (en) Method for manipulating tables on an interactive input system and interactive input system executing the method
JP5664164B2 (en) Electronic information board device, information display method, program
US9025878B2 (en) Electronic apparatus and handwritten document processing method
US20150347000A1 (en) Electronic device and handwriting-data processing method
US20150082236A1 (en) Information processing apparatus
CN114003145A (en) Touch screen writing and erasing method and device, electronic whiteboard and storage medium
JP6131004B2 (en) Object display method, program, and apparatus
JP6889686B2 (en) Information processing equipment, information processing system, information processing program and information processing method
JP6276630B2 (en) Information processing apparatus, information processing program, and information processing method
US20140152589A1 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
JP6475874B2 (en) Information processing apparatus, information processing program, and information processing method
US9542040B2 (en) Method for detection and rejection of pointer contacts in interactive input systems
EP2712433B1 (en) User interface for drawing with electronic devices
CN104156038A (en) Electronic reading device
JP6408273B2 (en) Information processing apparatus, information processing program, and information processing method
JP2011081749A (en) Control device, control method, control program, and recording medium
JP6367699B2 (en) Information processing apparatus, information processing system, information processing program, and information processing method
US20230196566A1 (en) Image annotation system and method
JP2019023888A (en) Information processing apparatus, information processing program and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180112

R150 Certificate of patent or registration of utility model

Ref document number: 6276630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees