JP2012113547A - Information processing terminal and program - Google Patents

Information processing terminal and program Download PDF

Info

Publication number
JP2012113547A
JP2012113547A JP2010262641A JP2010262641A JP2012113547A JP 2012113547 A JP2012113547 A JP 2012113547A JP 2010262641 A JP2010262641 A JP 2010262641A JP 2010262641 A JP2010262641 A JP 2010262641A JP 2012113547 A JP2012113547 A JP 2012113547A
Authority
JP
Japan
Prior art keywords
character
characteristic
information processing
data
processing terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010262641A
Other languages
Japanese (ja)
Inventor
Shunichiro Kamamoto
俊一朗 釜本
Katsuyuki Suzuki
克行 鈴木
Minoru Tanaka
実 田中
Satoshi Saito
聡 齋藤
Go Gotanda
剛 五反田
Tomoki Hosaka
共輝 穂坂
Manabu Shinkai
学 新海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba TEC Corp
Original Assignee
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba TEC Corp filed Critical Toshiba TEC Corp
Priority to JP2010262641A priority Critical patent/JP2012113547A/en
Publication of JP2012113547A publication Critical patent/JP2012113547A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Input From Keyboards Or The Like (AREA)
  • Character Discrimination (AREA)

Abstract

PROBLEM TO BE SOLVED: To allow even a person who is difficult to write characters to communicate in writing.SOLUTION: An information processing terminal includes instruction means, creation means, and display control means. The instruction means instructs characters to be displayed on a display unit. The creation means, by using data on reference characters corresponding to characters instructed by the instruction means and characteristic data showing characteristics of handwriting characters read from a predetermined storage unit, creates data on characters representing the characteristics. The display control means, by using data on characters created by the creation means, performs control so that characters representing the characteristics are displayed on the display unit.

Description

本発明の実施形態は、情報処理端末およびプログラムに関する。   Embodiments described herein relate generally to an information processing terminal and a program.

従来、指やタッチペンなどによりタッチパネル上で描かれた手書き文字を認識し、手書き文字または手書き文字に対応した定型の文字(フォント)をディスプレイに表示する情報処理端末が知られている。   2. Description of the Related Art Conventionally, there is known an information processing terminal that recognizes handwritten characters drawn on a touch panel with a finger or a touch pen, and displays handwritten characters or fixed characters (fonts) corresponding to the handwritten characters on a display.

しかしながら、従来の情報処理端末は、文字を書くことが困難な者にとっては使い勝手が悪いなどの課題がある。   However, conventional information processing terminals have problems such as poor usability for those who have difficulty in writing characters.

本実施形態の情報処理端末は、指示手段と、作成手段と、表示制御手段とを有する。指示手段は、表示部で表示する文字を指示する。作成手段は、前記指示手段で指示された文字に対応する基準文字のデータと、所定の記憶部から読み出した自筆文字の特性を示す特性データとを用いて、前記特性を表す文字のデータを作成する。表示制御手段は、前記作成手段で作成された文字のデータを用いて、前記特性を表す文字を前記表示部に表示させる制御を行う。   The information processing terminal of this embodiment includes an instruction unit, a creation unit, and a display control unit. The instruction means instructs a character to be displayed on the display unit. The creation means creates character data representing the characteristics using the reference character data corresponding to the character instructed by the instruction means and the characteristic data indicating the characteristics of the handwritten character read from the predetermined storage unit. To do. The display control means performs control to display the character representing the characteristic on the display unit using the character data created by the creating means.

図1は、本実施形態に係る情報処理端末の概略的な外観構成を示す斜視図である。FIG. 1 is a perspective view illustrating a schematic external configuration of the information processing terminal according to the present embodiment. 図2は、情報処理端末の概略的なハードウェア構成を示す図である。FIG. 2 is a diagram illustrating a schematic hardware configuration of the information processing terminal. 図3は、情報処理端末の機能的構成を示すブロック図である。FIG. 3 is a block diagram illustrating a functional configuration of the information processing terminal. 図4は、カメラで自筆文字を撮影する様子を示す図である。FIG. 4 is a diagram illustrating a state where a handwritten character is photographed by the camera. 図5は、特性情報を登録する登録テーブルの一構成例を示す図である。FIG. 5 is a diagram illustrating a configuration example of a registration table for registering characteristic information. 図6は、自筆文字の特性データを不揮発性メモリに記憶する場合の処理手順を示すフローチャートである。FIG. 6 is a flowchart showing a processing procedure in the case where characteristic data of handwritten characters is stored in a nonvolatile memory. 図7は、筆談時の処理手順を示すフローチャートである。FIG. 7 is a flowchart showing a processing procedure at the time of writing.

以下、実施形態について添付図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the accompanying drawings.

なお、本実施形態の情報処理端末は、概略的には、病気により声を出すのが困難な患者や、病気により文字を書くのが困難な患者などが筆談するための筆談端末であり、それら患者が健康体のときに手書きなどで自筆した手書き文字の癖を反映した文字(類似文字)を用いて筆談することを可能とした筆談端末である。   Note that the information processing terminal of the present embodiment is generally a writing terminal for a patient who is difficult to speak due to illness or a patient who is difficult to write characters due to illness. This is a writing terminal that enables a user to write using a character (similar character) that reflects a habit of a handwritten character handwritten by hand when the patient is healthy.

図1は、本実施形態に係る情報処理端末1の概略的な外観構成を説明するための斜視図である。   FIG. 1 is a perspective view for explaining a schematic external configuration of the information processing terminal 1 according to the present embodiment.

図1に示すように、情報処理端末1は、携帯型の端末であり、薄板状の本体ハウジング100を有している。そして、本体ハウジング100の正面側には、筆談で用いる類似文字Aを表示するディスプレイ2と、ディスプレイ2に表示する文字を指示するなどの各種指示を入力する各種機能キーを含むキーボード3が設けられ、本体ハウジング100の背面側には、使用者が過去(健康体のとき)に手書きなどで自筆した手書き文字(以下、単に「自筆文字」という。)Bが示された手紙などの媒体Cを撮影するためのカメラ4(図4参照)が設けられ、本体ハウジング100の一側面(上面)には、装置の電源をオン/オフするための電源ボタン5などが設けられている。   As shown in FIG. 1, the information processing terminal 1 is a portable terminal and has a thin plate-shaped main body housing 100. On the front side of the main body housing 100, a keyboard 2 including a display 2 for displaying a similar character A used in writing and various function keys for inputting various instructions such as instructing a character to be displayed on the display 2 is provided. On the back side of the main body housing 100, a medium C such as a letter on which a handwritten character (hereinafter simply referred to as “self-written character”) B handwritten by a user in the past (when in a healthy state) B is shown. A camera 4 (see FIG. 4) for photographing is provided, and a power button 5 for turning on / off the apparatus is provided on one side surface (upper surface) of the main body housing 100.

なお、図1の例では、ディスプレイ2に、類似文字Aで構成された「おはよう」という単語(文字群)が表示されている様子を示している。   In the example of FIG. 1, the display 2 displays a word (character group) of “good morning” composed of similar characters A.

図2は、図1に示す情報処理端末1の概略的なハードウェア構成を説明するための図である。   FIG. 2 is a diagram for explaining a schematic hardware configuration of the information processing terminal 1 shown in FIG. 1.

図2に示すように、この情報処理端末1は、例えば、CPU(Central Processing Unit)10と、このCPU10とバスラインBLを介して接続されるROM(Read Only Memory)11、RAM(Random Access Memory)12、記憶部13、表示部14、入力部15および自筆文字入力部16と、それら各負荷部に電力を供給する電力供給部17などを備えている。   As shown in FIG. 2, the information processing terminal 1 includes, for example, a CPU (Central Processing Unit) 10, a ROM (Read Only Memory) 11, a RAM (Random Access Memory) connected to the CPU 10 via a bus line BL. ) 12, a storage unit 13, a display unit 14, an input unit 15 and a handwritten character input unit 16, and a power supply unit 17 for supplying power to each of the load units.

ここで、CPU10は、コンピュータ全体の制御、即ち、各種演算や各構成要素部に対する各種処理を制御する。   Here, the CPU 10 controls the entire computer, that is, various operations and various processes for each component unit.

ROM11は、後述のフローチャートにおける処理手順を実行する処理プログラムPなどの各種プログラムや、それら各種プログラムで使用される各種データなどのファイルを記憶する。   The ROM 11 stores various programs such as a processing program P for executing processing procedures in a flowchart described later, and files such as various data used in the various programs.

RAM12は、入力データや表示データなどの作業中のデータや、コンピュータの起動時にROM11から読み出されたプログラムなどを一時的に記憶する。   The RAM 12 temporarily stores work data such as input data and display data, a program read from the ROM 11 when the computer is started up, and the like.

記憶部13は、後述の自筆文字の特性情報や基準文字の情報などを記憶するものである。   The storage unit 13 stores characteristic information of handwritten characters described later, information on reference characters, and the like.

表示部14は、前記したディスプレイ2と、そのディスプレイ2における各種情報の表示を制御する表示コントローラ(不図示)などを有している。なお、ディスプレイ2としては、例えば、LCD(Liquid Crystal Display)を採用する。   The display unit 14 includes the display 2 and a display controller (not shown) that controls display of various types of information on the display 2. As the display 2, for example, an LCD (Liquid Crystal Display) is adopted.

入力部15は、前記したキーボード3と、そのキーボード3からの操作信号の入力を制御する入力コントローラ(不図示)などを有している。   The input unit 15 includes the keyboard 3 and an input controller (not shown) that controls input of operation signals from the keyboard 3.

自筆文字入力部16は、前記したカメラ4と、そのカメラ4における撮影を制御するカメラコントローラ(不図示)などを有している。なお、カメラ4としては、例えば、CCD(Charge−Coupled Device)などのデジタルカメラを採用する。   The handwritten character input unit 16 includes the camera 4 and a camera controller (not shown) that controls photographing with the camera 4. As the camera 4, for example, a digital camera such as a CCD (Charge-Coupled Device) is employed.

電力供給部17は、前記した各負荷部に必要な電力を供給するための電源部であり、例えば、不図示のバッテリ収容口に対して着脱可能な蓄電池(バッテリ)17aと、その蓄電池17aからの電源供給を制御する電源コントローラ(不図示)などを有している。   The power supply unit 17 is a power supply unit for supplying necessary power to each load unit described above. For example, a storage battery (battery) 17a that can be attached to and detached from a battery storage port (not shown), and the storage battery 17a. And a power controller (not shown) for controlling the power supply.

なお、前記した実施形態では、蓄電池17aにより電力が供給される形態の情報処理端末1の場合について説明したが、これに限定されず、ACアダプタなどを介して外部の商用電源から電力を供給することが可能な情報処理端末1とすることも可能である。   In the above-described embodiment, the case of the information processing terminal 1 in a form in which power is supplied from the storage battery 17a has been described. However, the present invention is not limited to this, and power is supplied from an external commercial power supply via an AC adapter or the like. It is also possible to use the information processing terminal 1 that can be used.

図3は、CPU10がROM11に記憶されている処理プログラムPを、RAM12上に展開して実行することにより実現される情報処理端末1の機能的構成(ソフトウェア構成)を説明するためのブロック図である。   FIG. 3 is a block diagram for explaining a functional configuration (software configuration) of the information processing terminal 1 realized by the CPU 10 developing and executing the processing program P stored in the ROM 11 on the RAM 12. is there.

図3に示すように、情報処理端末1は、機能的構成として、自筆文字入力部100a、筆跡分析部100b、特性データ保持部100c、表示文字指示部100d、類似文字作成部100e、表示制御部100fなどを有している。   As shown in FIG. 3, the information processing terminal 1 includes a handwritten character input unit 100 a, a handwriting analysis unit 100 b, a characteristic data holding unit 100 c, a display character instruction unit 100 d, a similar character creation unit 100 e, and a display control unit as functional configurations. 100f or the like.

ここで、自筆文字入力部100aは、媒体Cなどに示された自筆文字Bに関するデータを入力する処理を行うものである。   Here, the handwritten character input unit 100a performs a process of inputting data related to the handwritten character B shown on the medium C or the like.

より具体的には、自筆文字入力部100aは、図4に示すように、筆談する使用者や看護師などの操作者により、カメラ4の撮影窓が自筆文字Bが示された媒体Cに向けられ、キーボード3に含まれる筆談モードと撮影モードとを切替るモード切替キー(図1参照)が選択されたことにより撮影モードに遷移した場合に、同じく操作者によってキーボード3に含まれる撮影キー(図1参照)が選択された場合に、カメラ4により媒体Cを撮影して自筆文字B(例:「お」)を含む画像データを入力する処理を行う。   More specifically, as shown in FIG. 4, the handwritten character input unit 100a is directed to the medium C on which the photographing window of the camera 4 is shown by the handwritten character B by an operator such as a user or a nurse who performs a conversation. When the mode switch key (see FIG. 1) for switching between the writing mode and the shooting mode included in the keyboard 3 is selected, the shooting key (also included in the keyboard 3 by the operator) is changed. 1 is selected, the medium 4 is photographed by the camera 4 and the image data including the handwritten character B (eg, “o”) is input.

また、自筆文字入力部100aは、OCR(Optical Character Reader)などの周知の文字認識アルゴリズムを用いて、カメラ4の撮影により取得した画像データから文字(例:「お」)を認識する。   In addition, the handwritten character input unit 100a recognizes a character (for example, “o”) from image data acquired by photographing by the camera 4 using a known character recognition algorithm such as OCR (Optical Character Reader).

筆跡分析部100bは、自筆文字入力部100aから画像データと、認識された文字の種別を示す文字データとを入力し、所定の筆跡分析アルゴリズムを用いて、自筆文字の特性(即ち、「文字の癖」)を分析する処理を行う。   The handwriting analysis unit 100b inputs image data and character data indicating the recognized character type from the handwritten character input unit 100a, and uses a predetermined handwriting analysis algorithm to determine the characteristics of the handwritten character (ie, “character処理 ”) is analyzed.

より具体的には、筆跡分析部100bは、認識された文字の種別(例:「お」)に対応した基準文字のパターン(座標情報または画像データ)を記憶部13から読み出し、該読み出した基準文字のパターンと、入力した画像データに含まれる自筆文字B(例:「お」)のパターン(座標情報または画像データ)とを比較して、両者の所定の判定ポイントにおける相違量を抽出し、該抽出した相違量で定義される特性情報(図5参照)を作成する。   More specifically, the handwriting analysis unit 100b reads the reference character pattern (coordinate information or image data) corresponding to the recognized character type (eg, “o”) from the storage unit 13, and the read reference Compare the pattern of the character with the pattern (coordinate information or image data) of the handwritten character B (e.g., “o”) included in the input image data, and extract the difference amount between the two predetermined determination points. Characteristic information (see FIG. 5) defined by the extracted difference amount is created.

なお、筆跡分析部100bの分析の精度を上げるために、基準文字のパターン(画像データ)のサイズと、自筆文字のパターン(画像データ)のサイズと合わせてから両パターンを比較するのが好ましい。   In order to increase the accuracy of the analysis of the handwriting analysis unit 100b, it is preferable to compare both patterns after matching the size of the reference character pattern (image data) and the size of the handwritten character pattern (image data).

なお、ここでいう「基準文字」とは、一般的なコンピュータのディスプレイに表示されたり、プリンタで印刷する場合に用いられる活字(フォント)であり、筆跡分析部100bは、基準文字のパターンとして、複数種類の活字(フォント)のパターンを有している。   The “reference character” here is a type (font) that is displayed on a general computer display or used for printing with a printer, and the handwriting analysis unit 100b uses the reference character pattern as It has multiple types of patterns (fonts).

また、前記した基準文字は、情報処理端末1が使用される国の文字言語に合わせてカスタマイズすることが可能であるが、本実施形態の情報処理端末1では、日本の文字言語における「かな文字」を用いた筆談を想定しているため、「基準文字」としての複数種類の活字(フォント)のパターンとしては、50音の「ひらがな」のパターンのみ有しているが、これに限定されず、例えば、50音の「カタカナ」のパターンや、0〜9までの「数字」のパターンや、×や○などの「記号」のパターンや、所定数の「漢字」のパターンや、「英文字」のパターンや、「ギリシア文字」のパターンなどのその他のパターンを有するようにしても良い。   The reference character can be customized according to the character language of the country in which the information processing terminal 1 is used. However, in the information processing terminal 1 according to the present embodiment, “kana character” in the Japanese character language is used. ”Is assumed, and as a pattern of plural types (fonts) as“ reference characters ”, there is only a“ hiragana ”pattern of 50 sounds, but it is not limited to this. For example, a 50-sound “Katakana” pattern, a “number” pattern from 0 to 9, a “symbol” pattern such as X or ○, a predetermined number of “Kanji” patterns, or “English characters” ”And other patterns such as a“ Greek character ”pattern.

また、ここでいう「判定ポイント」とは、文字の癖が顕著に表れると想定されるポイントのことであり、日本の文字言語における1文字中の画の始筆、送筆および終筆の各部(「横画」、「縦画」、「折れ」、「曲がり」、「とめ」、「はらい」、「点」、「はね」、「そり」、「むすび」、「おおまわり」など)や、1文字全体の丸み具合などの全体形状や、1文字全体の平均的な濃度などの、予め定められたポイントのことである。   The “judgment point” here is a point where it is assumed that the wrinkle of the character appears prominently, and each part of the first, first and last strokes of an image in one character in Japanese character language ( "Horizontal image", "Vertical image", "Fold", "Turn", "Tome", "Harai", "Point", "Splash", "Sleigh", "Musubi", "Omari" etc.) It is a predetermined point such as the overall shape such as the roundness of one character or the average density of one character.

特性データ保持部100cは、筆跡分析部100bから入力した特性情報を登録するテーブルT(図5参照)を、記憶部13に保持させる処理を行う。   The characteristic data holding unit 100c performs processing for causing the storage unit 13 to hold a table T (see FIG. 5) for registering the characteristic information input from the handwriting analysis unit 100b.

図5は、特性情報を登録する登録テーブルTの一構成例を説明するための図である。   FIG. 5 is a diagram for explaining a configuration example of a registration table T for registering characteristic information.

図5に示すように、登録テーブルTは、特性情報を登録するものであり、特性情報として、判定ポイントの種類と、各判定ポイントの特性値を登録する。   As shown in FIG. 5, the registration table T registers characteristic information, and as characteristic information, the type of determination point and the characteristic value of each determination point are registered.

なお、図5の例では、判定ポイント「とめ」に対応付けて、基準文字の「とめ」の基準値「10」に比べて小さい数値である「6」が特性値として登録されており、これは、基準文字の「とめ」に比べて、自筆文字の「とめ」が比較的流したものとなっていることを示している。   In the example of FIG. 5, “6”, which is smaller than the reference value “10” of the reference character “Tome”, is registered as a characteristic value in association with the determination point “Tome”. Indicates that the handwritten character “Tome” is a relatively streamed character compared to the reference character “Tome”.

また、判定ポイント「丸度(丸み具合)」に対応付けて、基準文字の「丸度の基準値「10」に比べて大きい数値である「12」が特性値として登録されており、これは、基準文字の「丸度」に比べて、自筆文字の「丸度」がより大きいことを示している。   Further, in association with the determination point “roundness (roundness)”, “12”, which is larger than the reference character “roundness reference value“ 10 ”, is registered as a characteristic value. This indicates that the “roundness” of the handwritten character is larger than the “roundness” of the reference character.

また、判定ポイント「濃度」に対応付けて、基準文字の「濃度」の基準値「10」に比べて大きい数値である「13」が特性値として登録されており、これは、基準文字の「濃度」に比べて、自筆文字の「濃度」がより濃度が濃いことを示している。   Also, in association with the determination point “density”, “13”, which is larger than the reference value “10” of the reference character “density”, is registered as a characteristic value. This indicates that the “density” of the handwritten character is higher than the “density”.

図3に戻って、表示文字指示部100dは、端末の電源がオンされた場合やモード切替キーが選択された場合などで情報処理端末1が筆談モードになっている場合に、使用者により選択された文字キーに割り当てられている基準文字のデータを記憶部13から読み出して類似文字作成部100eに出力する。   Returning to FIG. 3, the display character instruction unit 100 d is selected by the user when the information processing terminal 1 is in the writing mode when the terminal is turned on or when the mode switching key is selected. The reference character data assigned to the assigned character key is read from the storage unit 13 and output to the similar character creation unit 100e.

類似文字作成部100eは、表示文字指示部100dから基準文字のデータを入力した場合、記憶部13に保持されている登録テーブルT(図5参照)から特性データを取得し、自筆文字の特性(癖)を表す類似文字Aを作成し、その類似文字Aのデータを表示制御部100fに出力する。   When the reference character data is input from the display character instruction unit 100d, the similar character creation unit 100e acquires characteristic data from the registration table T (see FIG. 5) held in the storage unit 13, and the characteristic of the handwritten character ( A similar character A representing i) is created, and data of the similar character A is output to the display control unit 100f.

より具体的には、類似文字作成部100eは、表示文字指示部100dから入力した基準文字(例えば、「お」など)のパターンを、登録テーブルT(図5参照)から取得した特性データに含まれる複数の判定ポイントのうち当該基準文字(「お」)に適用可能な特性ポイント(例えば、「丸度」や「濃度」など)の特性値(例えば、「12」や「13」など)を用いて、それら特性値を有する類似文字A(即ち、使用者の自筆文字の特性(癖)を反映した文字)を作成する。   More specifically, the similar character creation unit 100e includes the pattern of the reference character (for example, “O”) input from the display character instruction unit 100d in the characteristic data acquired from the registration table T (see FIG. 5). Characteristic values (for example, “12”, “13”, etc.) of characteristic points (for example, “roundness”, “density”, etc.) applicable to the reference character (“O”) among a plurality of determination points The similar character A having the characteristic values (that is, the character reflecting the characteristic (癖) of the user's own handwritten character) is created.

表示制御部100fは、類似文字作成部100eから入力した類似文字Aのデータを用いて、類似文字Aをディスプレイ2に表示させる処理を行うものである。   The display control unit 100f performs processing for displaying the similar character A on the display 2 using the data of the similar character A input from the similar character creation unit 100e.

次に、前記した構成の情報処理端末1における各種処理動作について図6および図7を用いて説明する。   Next, various processing operations in the information processing terminal 1 configured as described above will be described with reference to FIGS. 6 and 7.

図6は、自筆文字の特性データを記憶部13に記憶する場合の情報処理端末1の処理手順を説明するためのフローチャートである。   FIG. 6 is a flowchart for explaining the processing procedure of the information processing terminal 1 when the characteristic data of handwritten characters is stored in the storage unit 13.

図6のステップS1において、使用者や看護師などの操作者により、電源ボタン5が操作されて情報処理端末1が電源オンとなり、同じく操作者によりキーボード3に含まれる切替キーが選択操作されて情報処理端末1が撮影モードとなった状態で、操作者により、キーボード3に含まれる撮影キーが選択操作された場合に、自筆文字入力部100aが、カメラ4を用いて媒体Cに示された自筆文字Bの撮影を行い、撮影により取得した画像データから文字を認識する。   In step S1 of FIG. 6, the power button 5 is operated by an operator such as a user or a nurse to turn on the information processing terminal 1, and the switching key included in the keyboard 3 is also selected by the operator. The handwritten character input unit 100a is shown on the medium C by using the camera 4 when the operator selects and operates the shooting key included in the keyboard 3 while the information processing terminal 1 is in the shooting mode. The handwritten character B is photographed, and the character is recognized from the image data acquired by photographing.

続いて、ステップS2において、筆跡分析部100bが、ステップS1の処理で認識された文字の種別を示す文字データと、取得した画像データとから、前記した方法により自筆文字Bの特性を分析する。   Subsequently, in step S2, the handwriting analysis unit 100b analyzes the characteristics of the handwritten character B from the character data indicating the character type recognized in the process of step S1 and the acquired image data by the method described above.

続いて、ステップS3において、特性データ保持部100cが、ステップS2の処理で得られた特性データを記憶部13に保持させる。   Subsequently, in step S3, the characteristic data holding unit 100c holds the characteristic data obtained in the process of step S2 in the storage unit 13.

なお、情報処理端末1は、ステップS1〜ステップS3の処理で、自筆文字の特性データを正常に作成/記憶できた場合には、ディスプレイ2に文字認識が正常にできた旨を通知する文字情報を表示し、他方、自筆文字Bの特性データを正常に作成/記憶できなかった場合には、ディスプレイ2に文字認識が正常にできず、再度の撮影を促す旨を通知する文字情報を表示する。   If the information processing terminal 1 has successfully created / stored the characteristic data of the handwritten character in the processing of step S1 to step S3, the character information notifying the display 2 that the character recognition has been normally performed. On the other hand, when the characteristic data of the handwritten character B cannot be normally created / stored, the character information for notifying the character that the character recognition cannot be normally performed and prompting the photographing again is displayed on the display 2. .

図7は、使用者が筆談する場合の情報処理端末1の処理手順を説明するためのフローチャートである。   FIG. 7 is a flowchart for explaining the processing procedure of the information processing terminal 1 when the user is writing.

図7のステップS11において、使用者などの操作者により、電源ボタン5が操作されて情報処理端末1が電源オンとなり、使用者によりキーボード3に含まれる文字キーが選択操作されると、情報処理端末1では、表示文字指示部100dが、選択された文字キー(例:「う」など)に対応する基準文字(「う」)のデータを記憶部13から読出して類似文字作成部100eに出力する。   In step S11 of FIG. 7, when the power button 5 is operated by an operator such as a user to turn on the information processing terminal 1, and the user selects and operates a character key included in the keyboard 3, information processing is performed. In the terminal 1, the display character instruction unit 100d reads the data of the reference character (“u”) corresponding to the selected character key (eg, “u”) from the storage unit 13 and outputs it to the similar character creation unit 100e. To do.

続いて、ステップS12において、類似文字作成部100eが、前記した方法により自筆文字Bの特性(癖)を表す類似文字Aを作成する処理を行う。   Subsequently, in step S12, the similar character creating unit 100e performs a process of creating the similar character A representing the characteristic (癖) of the handwritten character B by the above-described method.

続いて、ステップS13において、表示制御部100fが、ステップS12で作成された類似文字Aを表示部14のディスプレイ2に表示する。その後、使用者などにより電源ボタン5が操作されて情報処理端末1の電源がオフされて筆談が終了するまで(ステップS14:Yes)、前記ステップS11〜ステップS13の処理を繰り返し実行する。   Subsequently, in step S13, the display control unit 100f displays the similar character A created in step S12 on the display 2 of the display unit 14. Thereafter, the process of steps S11 to S13 is repeatedly executed until the user operates the power button 5 to turn off the power of the information processing terminal 1 and the writing is ended (step S14: Yes).

即ち、以上説明した実施形態によれば、使用者がキーボードや視線読取装置などを用いて表示する文字(定型の文字など)を指定すると、使用者の手書き文字の癖を反映した文字をディスプレイに表示することができる。   That is, according to the embodiment described above, when a user designates a character (standard character, etc.) to be displayed using a keyboard, a line-of-sight reader, or the like, the character reflecting the user's handwritten character is displayed on the display. Can be displayed.

より具体的には、本実施形態によれば、病気により声を出すのが困難な患者や、病気により文字を書くのが困難な患者などが、自身が健康体のときに自筆した比較的奇麗な自筆文字(手書き文字)の癖を反映した文字を用いて筆談することができるので、定型の文字による機械的な筆談とは異なり、手書きの温かみを出した筆談を行うことができる。   More specifically, according to this embodiment, a patient who is difficult to speak due to illness or a patient who is difficult to write letters due to illness is relatively beautiful that he wrote himself when he was healthy. Since handwriting can be performed using characters that reflect the habits of simple handwritten characters (handwritten characters), it is possible to perform handwriting with a warm handwriting, unlike mechanical writing using standard characters.

以上、例示的な実施形態に基づいて説明したが、本実施形態は、前記した実施形態により限定されるものではない。   As mentioned above, although demonstrated based on exemplary embodiment, this embodiment is not limited by above-described embodiment.

例えば、前記した実施形態では、自筆文字の特性データを保持するための記憶部13と、自筆文字のデータを入力するための自筆文字入力部(カメラ4やカメラコントローラ)16とを備える形態の情報処理端末1の場合について説明したが、これ以外にも、記憶部13および自筆文字入力部16を備えず、その代わりに、外部装置(外部の記憶装置や、記憶部を有する情報処理端末など)とデータ通信するための通信I/F部を備え、使用者が筆談する場合に、通信I/F部を介して外部装置から自筆文字の特性データを取得するような形態の情報処理端末とすることも可能である。なお、その場合には、前記した汎用の携帯型の通信端末を利用することが可能である。   For example, in the above-described embodiment, information of a form including the storage unit 13 for holding the characteristic data of the handwritten character and the handwritten character input unit (camera 4 or camera controller) 16 for inputting the data of the handwritten character. The case of the processing terminal 1 has been described, but besides this, the storage unit 13 and the handwritten character input unit 16 are not provided, but instead an external device (an external storage device, an information processing terminal having a storage unit, or the like). An information processing terminal having a communication I / F unit for data communication with a user and acquiring characteristic data of handwritten characters from an external device via the communication I / F unit when a user makes a conversation It is also possible. In this case, the general-purpose portable communication terminal described above can be used.

また、前記した実施形態では、ディスプレイ2に表示する文字を指示する入力手段として、キーボード3を有する操作入力部15の場合について説明したが、これに限定されず、他の形態の入力手段であっても良く、例えば、使用者の視線を読み取る視線読取装置を利用することも可能である。なお、その場合には、各文字が割り当てられたキーを含むキーボードをディスプレイ2に表示させ、そのディスプレイ2に表示されたキーボードの各キーを視る使用者の視線の検知信号に基づいて、ディスプレイ2に表示する文字を指示するように構成する。   In the above-described embodiment, the case of the operation input unit 15 having the keyboard 3 as the input means for instructing characters to be displayed on the display 2 has been described. However, the present invention is not limited to this, and other forms of input means may be used. For example, it is also possible to use a line-of-sight reader that reads the line of sight of the user. In this case, a keyboard including keys to which each character is assigned is displayed on the display 2, and the display is based on a detection signal of a user's line of sight that looks at each key of the keyboard displayed on the display 2. 2 is configured to indicate a character to be displayed.

また、前記した実施形態では、キーボード3のキー毎に一つのかな文字が割り当てられている場合について説明したが、これ以外にも、例えば、携帯電話機のキーボードのように、一つのキーに複数のかな文字が割り当てられ、同一のキーの押下(選択)回数に応じて割り当てられている複数のかな文字の中から所望のかな文字を選択するような形態とすることも可能である。   In the above-described embodiment, a case has been described in which one kana character is assigned to each key of the keyboard 3. However, in addition to this, for example, a plurality of keys are assigned to one key as in a keyboard of a mobile phone. A kana character may be assigned, and a desired kana character may be selected from a plurality of kana characters assigned according to the number of times the same key is pressed (selected).

また、前記した以外にも、例えば、一つのキーに、複数の文字からなる単語(例えば、「おはよう」、「ありがとう」、「おつかれさま」など)を割り当てておき、筆談モード時に、キーが選択された場合に、割り当てられた単語を構成する各基準文字のデータと、特性データとを用いて、特性を表す複数の類似文字を作成して、その類似文字で構成される単語をディスプレイ2に表示させるようにしても良い。   In addition to the above, for example, a word consisting of a plurality of characters (for example, “Good morning”, “Thank you”, “Otsukasema”, etc.) is assigned to one key, and the key is selected in the writing mode. In this case, a plurality of similar characters representing characteristics are created using the data of each reference character constituting the assigned word and the characteristic data, and the word composed of the similar characters is displayed on the display 2. You may make it display.

また、前記した実施形態では、キーボード3を用いてディスプレイ2に表示する文字を指示する形態について説明したが、これ以外にも、例えば、入力部15の代わりに、ディスプレイ2に積層されるタッチパネルを設け、そのタッチパネルを用いてディスプレイ2に表示された機能キーボードの機能キーアイコンを選択することでディスプレイ2に表示する文字を指示するような形態とすることも可能である。   Further, in the above-described embodiment, the form in which the character to be displayed on the display 2 is instructed using the keyboard 3 has been described. However, for example, a touch panel stacked on the display 2 is used instead of the input unit 15. It is also possible to use a form in which a character to be displayed on the display 2 is designated by selecting a function key icon of the function keyboard displayed on the display 2 using the touch panel.

また、前記した実施形態では、自筆文字のデータを入力する手段として、カメラ4やカメラコントローラを備えた自筆文字入力部16を備える形態について説明したが、これ以外にも、例えば、スキャナ装置で実現される自筆文字入力部を備える形態とすることも可能である。   In the above-described embodiment, the description has been given of the mode in which the handwritten character input unit 16 including the camera 4 and the camera controller is provided as means for inputting the data of the handwritten character. It is also possible to have a form including a handwritten character input unit.

また、前記した実施形態では、病院などの特定の場所で用いられる専用の筆談端末としての情報処理端末1の場合について説明したが、これに限定されず、例えば、携帯電話機やPDA(Personal Data Assistant)などの汎用の携帯型の端末に適用することも可能である。また、前記した実施形態では、病院内で患者に貸し出される携帯型の情報処理端末1の場合について説明したが、これ以外にも、例えば、使用者のベッドの傍に設置される据え置き型の情報処理端末に適用することも可能である。   In the above-described embodiment, the case of the information processing terminal 1 as a dedicated writing terminal used in a specific place such as a hospital has been described. However, the present invention is not limited to this. For example, a mobile phone or a PDA (Personal Data Assistant) is used. It is also possible to apply to general-purpose portable terminals such as). Further, in the above-described embodiment, the case of the portable information processing terminal 1 lent to a patient in a hospital has been described. However, other than this, for example, stationary information installed near a user's bed It can also be applied to a processing terminal.

また、前記した実施形態では、情報処理端末1を使用する使用者が一人である場合を想定して、記憶部13には、一人分の特性データのみを記憶する場合について説明したが、これ以外にも、例えば、一つの情報処理端末1を複数の者が共有して利用する場合を想定した場合には、使用者(個人)を特定可能な識別情報(指紋などの生体情報や、パスワードなどのID情報など)に対応付けて自筆文字の特性データを記憶部13に記憶させておき、筆談時に、所定の情報入力手段で入力された識別情報に基づいて特定される使用者の自筆文字の特性データを用いて類似文字Aを作成してディスプレイ2に表示させるような形態とすることも可能である。   Further, in the above-described embodiment, the case where only one user's characteristic data is stored in the storage unit 13 has been described assuming that there is only one user who uses the information processing terminal 1. In addition, for example, when it is assumed that one information processing terminal 1 is shared and used by a plurality of persons, identification information that can identify a user (individual) (biological information such as fingerprints, passwords, etc.) The characteristic data of the handwritten character is stored in the storage unit 13 in association with the ID information of the user, and the user's handwritten character specified based on the identification information input by a predetermined information input means at the time of writing. It is also possible to create a similar character A using the characteristic data and display it on the display 2.

また、前記した情報処理端末1で実行される処理プログラムPは、ROM11などの記憶部に予め組み込むように提供する以外にも、インストール可能な形式または実行可能な形式のファイルでコンピュータで読み取り可能な記憶媒体に記録して提供したり、インターネットなどのネットワーク経由で提供または配布したりすることも可能である。   Further, the processing program P executed by the information processing terminal 1 described above can be read by a computer in a file in an installable format or an executable format, in addition to being provided so as to be incorporated in a storage unit such as the ROM 11 in advance. It is also possible to provide it by recording it in a storage medium, or to provide or distribute it via a network such as the Internet.

その他、前記した実施形態における情報処理端末1のハードウェア構成や、ソフトウェア構成や、自筆文字の特性データの種別や、判定ポイントの種別や、処理手順などは、単なる一例として記載したものであり、本実施形態は、これらにより限定されない。   In addition, the hardware configuration of the information processing terminal 1 in the above-described embodiment, the software configuration, the type of characteristic data of handwritten characters, the type of determination point, the processing procedure, etc. are described as examples only, This embodiment is not limited by these.

1 情報処理端末
2 ディスプレイ(表示部)
3 キーボード(指示手段)
4 カメラ(入力手段)
100a 自筆文字入力部(入力手段)
100b 筆跡分析部(分析手段)
100c 特性データ保持部
100d 表示文字指示部
100e 類似文字作成部(作成手段)
100f 表示制御部(制御手段)
1 Information processing terminal 2 Display (display unit)
3 Keyboard (instruction means)
4 Camera (input means)
100a Handwritten character input part (input means)
100b Handwriting analysis unit (analysis means)
100c Characteristic data holding unit 100d Display character instruction unit 100e Similar character creation unit (creation means)
100f Display control unit (control means)

特開平4−153725号公報JP-A-4-153725

Claims (6)

表示部で表示する文字を指示する指示手段と、
前記指示手段で指示された文字に対応する基準文字のデータと、所定の記憶部から読み出した自筆文字の特性を示す特性データとを用いて、前記特性を表す文字のデータを作成する作成手段と、
前記作成手段で作成された文字のデータを用いて、前記特性を表す文字を前記表示部に表示させる制御を行う制御手段と、
を有する情報処理端末。
Instruction means for instructing characters to be displayed on the display unit;
Creating means for creating character data representing the characteristics by using reference character data corresponding to the character designated by the instruction means and characteristic data indicating characteristics of the handwritten character read from a predetermined storage unit; ,
Control means for performing control to display the character representing the characteristic on the display unit, using the character data created by the creating means;
An information processing terminal having
前記自筆文字が示された媒体を介して前記自筆文字の画像を入力する入力手段と、
前記入力手段で入力した画像から前記自筆文字の特性を分析する分析手段と、
前記分析手段で分析された特性を示す前記特性データを、前記記憶部に保持させる保持手段と、
を更に有する請求項1に記載の情報処理端末。
Input means for inputting an image of the handwritten character via a medium on which the handwritten character is shown;
Analyzing means for analyzing the characteristics of the handwritten character from the image input by the input means;
Holding means for holding the characteristic data indicating the characteristic analyzed by the analyzing means in the storage unit;
The information processing terminal according to claim 1, further comprising:
前記特性データは、前記自筆文字から抽出された文字の癖を示すデータであり、前記特性を表す文字は、前記癖を反映した文字である、請求項1または2に記載の情報処理端末。   3. The information processing terminal according to claim 1, wherein the characteristic data is data indicating a habit of a character extracted from the handwritten character, and the character representing the characteristic is a character reflecting the habit. 前記指示手段は、キーボード、または、視線読取装置である、請求項1〜3のいずれか一項に記載の情報処理端末。   The information processing terminal according to claim 1, wherein the instruction unit is a keyboard or a line-of-sight reader. 使用者を特定する特定手段、
を更に有し、
前記作成手段は、前記特定手段で特定された使用者の自筆文字の特性を示す特性データを用いて、前記特性を表す文字のデータを作成する、請求項1〜4のいずれか一項に記載の情報処理端末。
A specific means of identifying the user,
Further comprising
The said creation means creates the data of the character showing the said characteristic using the characteristic data which shows the characteristic of the user's handwritten character specified by the said specification means. Information processing terminal.
コンピュータを、
表示部で表示する文字を指示する指示手段と、
前記指示手段で指示された文字に対応する基準文字のデータと、所定の記憶部から読み出した自筆文字の特性を示す特性データとを用いて、前記特性を表す文字のデータを作成する作成手段と、
前記作成手段で作成された文字のデータを用いて、前記特性を表す文字を前記表示部に表示させる制御を行う制御手段と、
して機能させるプログラム。
Computer
Instruction means for instructing characters to be displayed on the display unit;
Creating means for creating character data representing the characteristics by using reference character data corresponding to the character designated by the instruction means and characteristic data indicating characteristics of the handwritten character read from a predetermined storage unit; ,
Control means for performing control to display the character representing the characteristic on the display unit, using the character data created by the creating means;
Program to make it work.
JP2010262641A 2010-11-25 2010-11-25 Information processing terminal and program Pending JP2012113547A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010262641A JP2012113547A (en) 2010-11-25 2010-11-25 Information processing terminal and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010262641A JP2012113547A (en) 2010-11-25 2010-11-25 Information processing terminal and program

Publications (1)

Publication Number Publication Date
JP2012113547A true JP2012113547A (en) 2012-06-14

Family

ID=46497688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010262641A Pending JP2012113547A (en) 2010-11-25 2010-11-25 Information processing terminal and program

Country Status (1)

Country Link
JP (1) JP2012113547A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0619449A (en) * 1992-06-30 1994-01-28 Canon Inc Handwritten character output device
JP3025127U (en) * 1995-11-22 1996-06-11 裕次 和田 Conversational Machine for the Deaf and Healthy
JP2003216600A (en) * 2002-01-23 2003-07-31 Riso Kagaku Corp Information processing device, information processing program and font for individual
JP2003233825A (en) * 2002-02-06 2003-08-22 Victor Co Of Japan Ltd Document processor
JP2005234399A (en) * 2004-02-20 2005-09-02 Konica Minolta Business Technologies Inc Image processing apparatus, image processing method, and image processing program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0619449A (en) * 1992-06-30 1994-01-28 Canon Inc Handwritten character output device
JP3025127U (en) * 1995-11-22 1996-06-11 裕次 和田 Conversational Machine for the Deaf and Healthy
JP2003216600A (en) * 2002-01-23 2003-07-31 Riso Kagaku Corp Information processing device, information processing program and font for individual
JP2003233825A (en) * 2002-02-06 2003-08-22 Victor Co Of Japan Ltd Document processor
JP2005234399A (en) * 2004-02-20 2005-09-02 Konica Minolta Business Technologies Inc Image processing apparatus, image processing method, and image processing program

Similar Documents

Publication Publication Date Title
FI115254B (en) Use of touch screen with a touch screen
US9811171B2 (en) Multimodal text input by a keyboard/camera text input module replacing a conventional keyboard text input module on a mobile device
US8605039B2 (en) Text input
JP4749468B2 (en) Handwritten character recognition in electronic devices
KR101695174B1 (en) Ergonomic motion detection for receiving character input to electronic devices
JP2004213269A (en) Character input device
US20160321238A1 (en) Electronic device, method and storage medium
JP2000137555A (en) Information processor, processing method and recording medium
JPH1185706A (en) Method and device for generating application data and recording medium recording application data generation program
JP2003162687A (en) Handwritten character-inputting apparatus and handwritten character-recognizing program
JPH1031548A (en) Input device
EP2302565A2 (en) Data processing device using image as data source and data input method through capturing image
JP4443194B2 (en) Processing object selection method in portable terminal character recognition and portable terminal
US20070047846A1 (en) Handwriting input system and method thereof
US20160334941A1 (en) Method and Device for Optical Handwriting Recognition
CN111539498B (en) Patient signature device of informationized medical record management system
US20050122322A1 (en) Document creating method apparatus and program for visually handicapped person
JPH06214704A (en) Information processing system and individual collation system
JP2012113547A (en) Information processing terminal and program
JP2003005902A (en) Character inputting device, information processor, method for controlling character inputting device, and storage medium
KR20090104147A (en) A method and aparatus for Hangul automata utilizing touch-sensitive input devices
Bellino et al. CameraKeyboard: A novel interaction technique for text entry through smartphone cameras
JPH0950433A (en) Handwritten character recognition device
KR102167774B1 (en) Telephone application image control method, program and computer readable recording medium
JP5196599B2 (en) Handwriting input device, handwriting input processing method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130507