WO1999016013A1 - Dispositif de reconnaissance de caracteres - Google Patents

Dispositif de reconnaissance de caracteres Download PDF

Info

Publication number
WO1999016013A1
WO1999016013A1 PCT/JP1998/004255 JP9804255W WO9916013A1 WO 1999016013 A1 WO1999016013 A1 WO 1999016013A1 JP 9804255 W JP9804255 W JP 9804255W WO 9916013 A1 WO9916013 A1 WO 9916013A1
Authority
WO
WIPO (PCT)
Prior art keywords
character
dictionary
elements
input
pattern
Prior art date
Application number
PCT/JP1998/004255
Other languages
English (en)
French (fr)
Inventor
Toshimi Yokota
Soshino Kuzunuki
Masaki Miura
Keiko Gunji
Koyo Katsura
Original Assignee
Hitachi, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi, Ltd. filed Critical Hitachi, Ltd.
Priority to KR1020007002990A priority Critical patent/KR20010024208A/ko
Priority to US09/509,076 priority patent/US6718060B1/en
Publication of WO1999016013A1 publication Critical patent/WO1999016013A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/333Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • G06V30/244Division of the character sequences into groups prior to recognition; Selection of dictionaries using graphical properties, e.g. alphabet type or font
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/32Digital ink
    • G06V30/36Matching; Classification
    • G06V30/373Matching; Classification using a special pattern or subpattern alphabet

Definitions

  • the present invention relates to a handwritten character recognition device that recognizes handwritten characters online.
  • Japanese Patent Application Laid-Open No. 2-56669 describes a technique for recognizing broken characters and continuously written characters. Specifically, a straight line in one direction is extracted from a sequence of coordinate points constituting a character. The extracted straight lines are sorted, and a long straight line is extracted as the sub-stroke S1. Next, a portion other than the extracted portion is defined as a sub-stroke S2. Then, based on the positions and shapes of these Sl and S2, it is determined whether or not there is a corresponding dictionary, and recognition is performed.
  • recognition is performed based on the shape and arrangement of strokes formed by a coordinate sequence forming a character pattern.
  • problems in performing recognition based on all coordinate sequences such as force and force.
  • An object of the present invention is to solve such a problem and to write roughly, so that continuous writing, stiffness, and stroke order are random, characters that include deformation can be recognized, and the load of recognition processing is small.
  • An object of the present invention is to provide a recognition device.
  • the present invention provides an input unit for inputting handwritten characters and outputting a coordinate point sequence, a plurality of character codes, and a character pattern corresponding to each character code.
  • the dictionary to be stored, the element decomposer that decomposes the coordinate sequence output from the input unit into a plurality of elements that compose this character, and each character stored in the dictionary are stored in the dictionary.
  • Matching unit that finds the corresponding distance value for the character pattern element and the input character pattern element and corrects the distance value based on the unsupported element, and displays the character pattern with a small distance value on the display unit
  • a processing unit that performs the processing.
  • FIG. 1 is a diagram showing the configuration of this system.
  • FIG. 2 is a diagram showing an outline of character recognition in a conventional example.
  • FIG. 3 is a diagram showing an outline of character recognition according to the present invention.
  • Fig. 4 is a diagram showing the entire processing of this system.
  • FIG. 5 is a diagram showing the wedge-shaped approximation processing of FIG.
  • FIGS. 6A and 6B are diagrams showing the vertical and horizontal element decomposition processing of FIG.
  • FIGS. 7A to 7C are diagrams showing a process of matching with the input dictionary of FIG.
  • FIGS. 8A and 8B are diagrams showing a process of calculating a distance value that takes the AND of the feature elements of FIGS. 7A-7C.
  • FIG. 9 is a diagram showing a detailed identification process.
  • FIGS. 10A and 10B are diagrams showing the image shortage check processing.
  • FIG. 11 shows the link check process.
  • FIG. 12 is a diagram showing a brush direction check process.
  • FIG. 13A-13C is a diagram for explaining the outline of the processing.
  • FIG. 14 is a diagram for explaining the outline of the processing.
  • FIGS. 15A to 15F are diagrams for explaining the outline of the processing.
  • FIG. 1 shows an online handwritten character input device of the present invention.
  • the liquid crystal tablet 110 is composed of an input unit and a display unit. When a user inputs handwriting on the input unit, the liquid crystal tablet 110 detects this and passes it to the pen manager 120 as a time-series coordinate point sequence.
  • the pen manager 120 receives the time series of coordinate points from the LCD tablet 110, and according to the area attribute on the LCD tablet 110 defined by the application 130, if If the point sequence is in the region attribute to be recognized, the coordinate point sequence is passed to the preprocessing unit 140.
  • the application 130 executes an application program and divides an area on the liquid crystal tablet 110 into several areas to determine area attributes. For example, a part of the screen is defined as a character input area.
  • the preprocessing unit 140 The time series of coordinate points is received from the application manager 120, and the points where the writing speed is fast are sparse / the parts where the writing speed is slow are resampled and the density of the coordinate points is fixed by resampling And then normalize the position and size. In this manner, the position and size are normalized, and the coordinate point sequence having a constant density is input to the wedge-shaped approximation unit 5.
  • the wedge-shaped approximation part 150 is composed of an element decomposition part 51 and an element rearrangement part 152.
  • the element decomposing unit 151 generates a line segment for performing pattern matching from the coordinate point sequence in which the density becomes constant in the preprocessing unit 140.
  • the generated line segment is passed to the element rearranging unit 152, and here, even if the character is drawn in random stroke order, the line segment element upward or downward so that it can be associated with the dictionary by its position Are arranged in order from the top according to the position, and the line elements in the right or left direction are arranged in order from the left, or the length of the line element is arranged. Then, the position order result is held, and the segment element sequence and the line segment position order result are passed to the matching unit 170.
  • the matching unit 170 performs matching with the dictionary based on the line segment element sequence and line segment position order result sent from the wedge-shaped approximating unit 150, and is close to the character pattern input by handwriting from the LCD tablet 110. Characters are output from the dictionary and displayed on the display of the LCD tablet 110.
  • the dictionary 160 holds a coordinate point sequence of the character pattern, and a line segment element sequence obtained through the preprocessing unit 140 and the wedge-shaped approximation unit 150 in association with the character code. I have.
  • the matching unit 170 is a matching management unit 171, a line element sequence of the input character pattern, and characters stored in the dictionary.
  • the matching management unit 17 1 reads out the character patterns stored in the dictionary one by one from the dictionary 16 0, and thereafter, the AND processing unit 17 2, the dictionary distance value correction unit 17 3, the input distance value
  • the correction unit 174 calculates a distance value from the input character pattern. First, Receiving the input character pattern and the line segment element string of the dictionary character pattern from the wedge-shaped approximation unit 150 and the dictionary 160, the AND processing unit 172, dictionary distance correction unit 173, input distance value correction Calculate while correcting the distance value between the character pattern input by me and the character pattern in the dictionary in Part 1 74, and finally recognize the ID or character code of the dictionary pattern and the distance value. Pass over ⁇
  • the AND processing unit 172 when comparing the line segment element sequence of the dictionary pattern with the line segment element sequence of the input pattern separately from the vertical line element or the horizontal line element, finds the position (element (Approximately one place after rearrangement of the replacement part 17 1))
  • the line segment elements of the character pattern of the close dictionary correspond to the line segment elements of the input character pattern, and (1) the line segment corresponding to the input character pattern The element is in the dictionary character pattern.
  • the line segment corresponding to the input character pattern is not in the dictionary character pattern.
  • the line segment element corresponding to the dictionary character pattern is in the input character pattern. If there are no such cases, classify them into three types, find the distance values among them, and use this sum as the final distance value.
  • the dictionary distance value correction unit 173 and the input distance value correction unit 174 determine the distance value in detail later.
  • the correspondence between the line segment elements and the distance value between the line segment elements as a result of the processing are passed to the dictionary distance value correction unit 173 via the matching management unit 171.
  • the processing for the dictionary pattern may be terminated, and the fact may be passed to the matching management section 171.
  • the dictionary distance value correction unit 173 is to consider deformation of the input character pattern. When deformation and continuations cause omission, the input character pattern may not have a corresponding line element, even though the character pattern in the dictionary is a line element.
  • the input distance value correction unit 1 ⁇ 4 also considers the continuous writing of input characters. Continuation Writing power ⁇ When a line segment element corresponding to that part occurs, even if it is a line segment element in the input character pattern, there is no line segment element in the dictionary character and the ° -turn. Therefore, when the input character pattern is viewed as a line element sequence in the stroke order, before and after the line element that could not be associated with the dictionary character pattern, there were line element elements that could be associated with the dictionary character pattern. For example, if the line segment element of the input character pattern is located at the position where the line segment element of the character pattern in the dictionary is connected, the line element can be interpreted as a part of continuous writing.
  • the recognition result output unit 175 obtains the ID or character code of the character pattern in the dictionary and its distance value
  • the matching management unit 171 selects the one with the smaller distance value, and selects the smaller distance value.
  • the recognition result is arranged in order. Then, once the recognition result is returned to the detailed identification unit 180 once again, the recognition result is returned, and it is output to the pen manager 2 "5.
  • the detailed identification unit 180 replaces the order of the recognition result with the characteristic of the character that disappears in the line segment element sequence divided into the line segment elements by the element decomposing unit 151.
  • the detailed identification unit 8 obtains the ID or character code of the dictionary pattern with a small distance value as the recognition result output unit and the recognition result output unit, and the detailed characteristics of each dictionary pattern.
  • the input pattern is examined for, and if necessary, the order of recognition results is exchanged, and the result is passed to the recognition result output units 1 to 5.
  • FIG. 4 shows a process flow of the entire online handwritten character input device of the present invention.
  • processing 401 the character pattern handwritten by the user using the LCD tablet 110, pen manager 120, and application 130 is converted into a time-series coordinate point sequence.
  • the preprocessing section 140 samples the coordinate point sequence where the writing speed is fast and the portion where the writing speed is sparse and the density where the writing speed is slow, and keeps the coordinate point sequence density constant. To In addition, normalize the position and size.
  • the center of gravity of the character pattern is obtained from the sequence of coordinate points of the input character pattern, the pattern is translated so that the center of gravity and the origin are overlapped, the position is normalized, and the center of gravity ( The size is normalized by expanding or reducing so that the average value of the distance from the two origins) to each coordinate point is constant.
  • processing 404 a wedge-shaped approximation process is performed by the wedge-shaped approximation unit 150.
  • vertical and horizontal element decomposition processing 501 is performed to decompose the input pattern into vertical and horizontal line segment elements. 503 is performed.
  • FIG. 6A shows the processing front of the vertical and horizontal element decomposition processing 501.
  • a line segment is determined while extracting points and local start and end points that take local M IN NO values in the X-axis and y-axis directions from the input character pattern. That is, as shown in FIG. 15A, when the user moves along the coordinate point sequence from the starting point a input by the user, the y-axis becomes minimum at the point b. Next, when the point b is moved along the coordinate point sequence starting from the point b, the y-axis becomes maximum at the point c (Fig. 15B). When the local MIN / MAX value in the X-axis and y-axis directions is obtained in this way, the result is as shown in Fig. 15C.
  • processing for bringing the character pattern shown in FIG. 15C closer to the character pattern input by the user 1 is performed in processing 62 to processing 604.
  • the ratio of the length of the line segment to the sequence of coordinate points constituting the original strike is determined for each of the line segments formed by the determined threshold values. If it is smaller than a, it is determined that the approximation by the line segment is insufficient, and the midpoint of the original stroke is captured as an approximate point.
  • the approximate point d is interpolated because the ratio of the length of the line segment 1 to the original stroke 2 is smaller than a predetermined threshold value.
  • Figure 15F interpolates in this way.
  • step 6 06 connect the points obtained in steps 6 0 1 to 6 Confuse.
  • the area surrounded by the line segment element and the original stroke is obtained, and when the area is larger than a predetermined threshold value, the approximate point is calculated. It may be complemented.
  • FIG. 7A shows details of the matching processing 505 between the input and the dictionary.
  • the distance value between the line segment sequence and all dictionary patterns is obtained.
  • the distance value between the line segment sequence and the element that matches the dictionary pattern is obtained. For example, if the character pattern shown by the input wedge in Fig. 7A and the character pattern shown by the dictionary wedge are shown in Fig. 7A,
  • the thick line portion of B is the AND portion where the two patterns match, and the distance value of this portion is calculated.
  • FIGS. 8A and 8B show in detail the processing 700 for calculating the distance value that takes the AND of this feature element.
  • dist-cpl is a variable that holds the distance value of the element that can be associated with the line element of the input pattern and the element of the dictionary pattern.
  • dist-cpl is a variable that holds the distance value of the portion shown by the thick line.
  • di st—i—sng is a variable that holds the distance value for the input pattern element that could not be associated with the dictionary pattern element.
  • dist—d—sng is a variable that holds the distance value for the dictionary pattern element that could not be matched with the input pattern element.
  • cpl — i (i) is initialized to ⁇ 1 by processing 80 2 to 800 4.
  • cpl-i (i) is a variable that holds the element number j of the dictionary pattern that can be associated with the element i of the line segment of the input pattern. Then, it is classified into four directions of ⁇ ⁇ — according to the brush direction of the element. This classification is because when searching for a dictionary pattern element j corresponding to an input pattern element i in a later process 8110, it is possible to search at high speed by searching from the same classification. Note that classification is not necessary.
  • processing 805 the classified elements are sorted by the length of the line segment. This is because sorting can be performed at high speed by searching in the order of sorting when searching for the dictionary pattern element j corresponding to the input pattern element i in the process 810. It is not necessary to sort.
  • Steps 806 to 808 the dictionary patterns are initialized in the same way as in Steps 802 to 804, by initializing cpl-d (j) with -1 and classifying them into four directions ( ⁇ ⁇ ) according to the writing direction of the element.
  • the distance value is, for example, the input pattern element i is the starting point
  • the first term in the above equation is used to determine the difference between the position of line segment i of the input character pattern and the position of line segment j of the character pattern in the dictionary, and recognition is performed without using stroke order information. If you need it. Otherwise, the input pattern "3" as shown in Fig. 13A-13C cannot be identified.
  • the distance value (i, j) obtained in the process 810 is compared with a threshold value to determine whether or not the correspondence of (i, j) is correct. This has the effect of preventing the elements of the noise portion input from camera shake or the like from being associated with each other as shown in FIG. If the correspondence is determined to be correct in process 81 1, in process 812, cpl—i (i) and cpl—d (j) are set to the element numbers j and i of each other, and the distance value ( i, j) are added.
  • processing 81 If the correspondence is incorrect in step 3, the length of element i is added to dist-i-sng as a distance value corresponding to the failure to correspond to input pattern element i in processing 814.
  • a constant other than the length may be used, or a function using the length as a parameter may be used.
  • the distance value in the case of a noise element as shown in Fig. 14 can be suppressed, and if the size of the character and the line segment occupying the part cannot be matched, the size L This is effective because a distance value can be given.
  • the input-only feature element is searched, and the distance value is calculated again.
  • the bold line part 1 2 1 4 of the input pattern feature element shown in the bold line part in the figure may correspond to the dictionary pattern element.
  • Remains. 1 2 is entered between 1 1 and 1 3 which is associated with the dictionary pattern element, and can be interpreted as a part of the dictionary pattern element which has 1 1 and 1 3 associated with it Therefore, by giving a value smaller than the distance value for 1 2 when it cannot be interpreted, continuous characters can be easily recognized.
  • the characteristic of the pattern such as the difference between the force and the corner disappears.
  • a detailed identification dictionary different from the dictionary 160 is prepared, and if the recognition result includes a character approximated by the wedge-shaped approximation, the detailed identification dictionary is used.
  • the input character pattern is checked for the detailed characteristics of the character pattern in each dictionary, and if necessary, the recognition result order is replaced.
  • FIG. 9 shows the process ⁇ of the detailed identification process 406.
  • FIGS. 10A and 10B show the processing flow of the image shortage check 901. This process is to add a large penalty to the distance value even if a small element is insufficient, such as the cloud point shown in Fig. 1 OA.
  • the distance value dist is initialized to 0 in process 1 0 1. Also, in process 1 002, the link information link
  • link [i] [0] is the number of the line segment whose end point is in contact with the start point of line segment i
  • link [i] [1] is the line number of the line segment whose start point is in contact with the end point of element i Set the number.
  • the threshold value is added to the distance value as a penalty instead of the total length of the image (k).
  • the line number i cpl — i (i) or cpl — d (j) is obtained by tracing all the line segments contained in the image by referring to link [i] [1] from the top (k). — Check whether all the line segments included in the image (k) are not corresponded by 1 or not.
  • the total length of the image is obtained by adding the lengths of all the line segments while referring to the link [i] [1] in a similar manner.
  • the link information is checked and set to ink [] [], but before the elements are rearranged in the processing 503 in FIG. 5, the line segment numbers included in the image are set to ink []. It may be set to [].
  • the link [] [] information is also retained for the dictionary pattern, the dictionary capacity will increase significantly. Therefore, the link [] [] information must be set before input elements are rearranged. In addition, only the dictionary pattern may be set to link [] [] by the processing 1006 or 1008 of FIG. 10.
  • FIG. 11 shows a processing flow of the link check processing 902 of FIG. This processing is to add a penalty corresponding to the case where the link status of the element is different, such as “R” shown in Fig. 11 or a similar pattern, to the distance value.
  • a when one of the character patterns of a dictionary is input as a character pattern, the other is divided into two strokes and connected to different elements. Gives the maximum penalty. If it is not connected to a different element, it is likely that one stroke was written in succession, so a smaller penalty should be used. As in b)), penalty is given also to the case where one of the character patterns of the dictionary Z character input is connected with a force that connects different elements.
  • the present invention is a character recognition technology capable of recognizing even a random stroke order.
  • the processing of the link status check uses a dictionary to determine whether the stroke order information matches. ,. You only need to look at the turns and input patterns.
  • FIG. 12 shows a processing flow of the brush direction check processing 903 of FIG. This process recognizes characters even if the stroke direction is reversed.
  • process 1 201 the brush directions of all elements are aligned to ⁇ . If all elements are vertical bar and horizontal bar, ⁇ is converted to ⁇ , and ⁇ is converted to ⁇ , and the conversion information is stored. If there is a diagonal element, classify it as either a vertical bar or a horizontal bar and convert similarly. Then, in processing 122, matching between the input and the dictionary described in FIG. All dictionaries, "turn" may be performed, or may be performed only with the dictionary batanin of the upper rank of the candidate. A penalty is given for elements different from the original brush direction.
  • the processing is performed in processing 906 in the order of the candidate distance in ascending order of distance value. Review.
  • the recognition result is output as a recognition result from a smaller distance value as a recognition result (processing 407).
  • a character recognizing device that can write even rough characters, can be recognized even if it is a continuous writing, has a random stroke order, and has a small load of recognition processing. Can be provided.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Character Discrimination (AREA)

Description

明 細 書 文字認識装置 技術分野
本発明は手書き文字をオンラインで認識する手書き文字認識装置に関する。 背景技術
特開平 2— 5 6 6 8 9号公報に、 くずし字や続け書きされた文字を認識する技 術が記載されている。 詳しくは、 文字を構成する座標点列から一方向の直線を抽 出する。 抽出した直線についてソートを行い、 長い直線をサブストローク S 1と して抽出する。 次にこの抽出した以外の部分をサブストローク S 2とする。 そし て、 この S l, S 2の位置や、 形状に基づいて辞書に該当するものがあるか判定 を行って認識を行う。
上記従来技術では、 文字パターンが構成される座標列で構成されるストローク の形状や配置に基づいて認識を行っている。 し力、しな力 ら、 全ての座標列に基づ いて認識を行うために次のような問題がある。
一般に続け書きや、 くずし字を認識できないのは、 入力された文字パターンと、 辞書に格納された文字ノ、"ターンとが異なるためである。 続け書きをした場合には、 余計な入力が入力されたり、 辞書に格納されている文字パターンと形が全く異な つたものとなったりする。 従って、 続け書きされた文字を認識するためには入力 された文字パターンのうち、 どの部分が認識に必要な部分であり、 どの部分が認 識に不要な部分であるかを分ける必要があり、 全ての座標に基づいて認識を行つ ても続け書きされた文字を、 好適に認識することができない。
本発明の目的は、 かかる問題を解決し、 ラフに書いたために、 続け書きで、 し 力、も筆順もでたらめで、 変形を含む文字であっても認識でき、 しかも認識処理の 負荷が小さい文字認識装置を提供することにある。
発明の開示
上記目的を達成するため本発明は、 手書き文字を入力し、 座標点列を出力する 入力部と、 複数の文字コードと、 各々の文字コードに対応する文字パターンとを 格納する辞書と、 入力部から出力される座標列から、 この文字を構成する複数の 要素に分解する要素分解部と、 辞書に格納されたそれぞれの文字 夕一ンについ て、 辞書に格納された文字パターンの要素と入力された文字パターンの要素につ いて対応する距離値を求め、 対応しない要素に基づいて求めた距離値を修正する マッチング部と、 距離値の小さい文字パターンを表示部に表示する処理部とを有 することを特徴とする。
図面の簡単な説明
図 1は本システムの構成を示した図である。 図 2は従来例の文字認識の概要を 示した図である。 図 3は本発明の文字認識の概要を示した図である。 図 4は本シ ステムの処理の全体を示した図である。 図 5は図 4の楔形近似の処理を示した図 である。 図 6 Aおよび 6 Bは図 5の縦横要素分解の処理を示した図である。 図 7 A— 7 Cは図 4の入力辞書とのマッチングの処理を示した図である。 図 8 Aおよ び 8 Bは図 7 A— 7 Cの特徴要素の A N Dをとる距離値の算出の処理を示した図 である。 図 9は詳細識別の処理を示した図である。 図 1 O Aおよび 1 0 Bは 画不足チェック処理を示した図である。 図 1 1はリンクチェック処理を示した図 である。 図 1 2は筆方向チヱック処理を示した図である。 図 1 3 A— 1 3 Cは処 理の概要を説明するための図である。 図 1 4は処理の概要を説明するための図で ある。 図 1 5 A— 1 5 Fは処理の概要を説明するための図である。
発明を実施するための最良の形態
以下、 図面に従って本発明のオンライン手書き文字入力装置を説明する。
図 1に、 本発明のオンライン手書き文字入力装置を示す。 液晶タブレツ ト 1 1 0は、 入力部と表示部とから構成され、 ユーザーがこの上に手書きで入力すると、 これを検出し、 時系列の座標点列としてペンマネージャ 1 2 0にわたす。 ペンマ ネージャ 1 2 0は、 液晶タブレット 1 1 0より時系列の座標点列を受け取り、 ァ プリケーション 1 3 0の定義する液晶タブレツ卜 1 1 0上の領域属性にしたがつ て、 もし、 座標点列が文字認識すべき領域属性にあれば、 前処理部 1 4 0に、 こ の座標点列をわたす。 アプリケーション 1 3 0はアプリケーションプログラムを 実行し、 液晶タブレツ ト 1 1 0上の領域をいくつかに分割して領域属性を定める もので、 例えば、 画面の一部を、 文字入力領域と定める。 前処理部 1 4 0は、 ぺ ンマネージャ 1 2 0より時系列の座標点列を受け取り、 筆速が早かった部分はま ばら/遅かった部分は密になっている座標点列をリサンプル処理して座標点列の 密度を一定にし、 さらに、 位置とサイズを正規化する。 このように、 位置及びサ ィズが正規化され、 密度が一定になった座標点列は楔形近似部 5に入力される。 楔形近似部 1 5 0は、 要素分解部】 5 1, 要素並替部 1 5 2から構成されてい る。
要素分解部 1 5 1は、 前処理部 1 4 0で密度が一定になった座標点列から、 パ ターンマッチングを行うための線分を生成する。 生成された線分は、 要素並替部 1 5 2にわたされ、 ここでは筆順でたらめで書いた文字でも、 その位置によって 辞書と対応を付けられるようにするために上または下方向の線分要素をその位置 によって、 上から順に並べ、 右または左方向の線分要素を左から順に並べたり、 線分要素の長さの順に並べる。 そして、 その位置順結果を、 保持すると共に、 線 分要素列と線分位置順結果をマッチング部 1 7 0にわたす。
マッチング部 1 7 0は、 楔形近似部 1 5 0から送られる線分要素列, 線分位置 順結果に基づいて辞書とのマッチングを行い、 液晶タブレツト 1 1 0から手書き 入力された文字パターンに近い文字を辞書から出力し、 液晶タブレット 1 1 0の 表示部に表示するものである。 尚、 辞書 1 6 0には、 文字パターンの座標点列を、 前処理部 1 4 0および楔形近似部 1 5 0にかけて得られる線分要素列を、 文字コ 一ドと対応付けて保持している。
マッチング部 1 7 0は、 マッチング管理部 1 7 1 , 入力された文字パターンの 線分要素列と、 辞書に格納されている文字、。ターンとの距離値を求める A N D処 理部 1 7 2と、 辞書のみに存在する線分要素を抽出し、 距離値を修正する辞書距 離値修正部 1 7 3 , 入力パターンのみに存在する線分要素を抽出し、 距離値を修 正する入力距離値修正部 1 7 4, A N D処理部1 7 2, 辞書距離値修正部 1 7 3 , 入力距離値修正部 1 7 4から得られた距離値に基づいて認識結果を抽出し、 液晶 タブレット 1 1 0の表示部に出力する認識結果出力部 1 Ί 5からなる。
マッチング管理部 1 7 1は、 辞書 1 6 0から 1つずつ辞書に格納されている文 字パターンを読み出して、 以下、 A N D処理部1 7 2, 辞書距離値修正部 1 7 3, 入力距離値修正部 1 7 4により入力の文字パターンとの距離値を算出する。 まず、 楔形近似部 1 5 0と辞書 1 6 0から入力の文字パターンと辞書の文字パターンの 線分要素列を受けて、 A N D処理部1 7 2, 辞書距離値修正部 1 7 3 , 入力距離 値修正部 1 7 4にわたし入力の文字パターンと辞書の文字パターンとの距離値を 修正しながら算出し、 最後に辞書パターンの I Dまたは文字コードと、 その距離 値を認、識結果出力部 1 7 5にわたす^
A N D処理部1 7 2は、 縦の線分要素または横の線分要素と別々に、 辞書バタ ーンの線分要素列と入力パターンの線分要素列を比較したときに、 位置 (要素並 替部 1 7 1の並べ替え後の 1頃位) 力近い辞書の文字パターンの線分要素と入力の 文字パターンの線分要素とを対応させ、 (1 ) 入力の文字パターンに対応する線 分要素が辞書の文字パターンにある、 (2 ) 入力の文字パターンに対応する線分 要素が辞書の文字パターンにない、 (3 ) 辞書の文字パターンに対応する線分要 素が入力の文字パターンにない場合の 3種類に分類して、 これらの間でそれぞれ 距離値を求めて、 この総和を最終的な距離値とする。 (2 ) と (3 ) については、 辞書距離値修正部 1 7 3 , 入力距離値修正部 1 7 4により、 後で詳細に距離値を 求めるため、 ここでは、 一定値の距離値としておく。 処理の結果としての、 線分 要素の対応付けと、 線分要素間の距離値をマッチング管理部 1 7 1を介して辞書 距離値修正部 1 7 3にわたす。 ここで、 距離値が大きくなり過ぎたら、 その辞書 パターンについての処理は打ち切って、 この旨をマッチング管理部 1 7 1にわた してもよい。 辞書距離値修正部 1 7 3は、 入力された文字パターンの変形を考慮 することにある。 変形や続け書きが高じて省略力生じたとき、 辞書の文字パター ンには線分要素とされていても入力の文字パターンには対応する線分要素がない 場合がある。 そのため、 AN D処理部 1 7 2の結果、 辞書の文字パターンの線分 要素で対応する入力パターンの線分要素がないものについて、 (1 ) まず、 入力 の文字パターンの線分以外の線分要素に対応するものがあるか探索し、 あれば、 これとの距離値を得る。 (2 ) なければ、 辞書の文字パターンのその線分要素の 大きさに応じた距離値とする。 そして、 A N D処理部 1 7 2で一定値を与えてい た距離値をこれに置き換える。 大きさに応じた距離値とするのは、 大きい線分要 素は省略されにくいが、 小さい線分要素は省略され易いからである。 そして、 A N D処理部 1 7 2で一定値を与えていた距離値をこれに置き換える。 処理の結果 としての、 線分要素の対応付けと、 線分要素間の距離値をマッチング管理部 1 7 1を介して入力距離値修正部 1 7 4にわたす。
入力距離値修正部 1 Ί 4も、 入力文字の続け書きを考慮することにある。 続け 書き力《生じたとき、 その部分に相当する線分要素で、 入力の文字パターンには線 分要素とされていても、 辞書の文字ァ、°ターンには線分要素がない。 そこで、 入力 の文字パターンを筆順の線分要素列で見たとき、 辞書の文字パターンと対応付け できなかった線分要素の前後に、 辞書の文字パターンと対応付けできている線分 要素があれば、 その辞書の文字パターンの線分要素を連結する位置に、 入力の文 字パターンのその線分要素があるのであれば、 その線分要素は続け書きの部分と 解釈できる。 続け書きと解釈できれば、 小さい距離値を与え、 できなければ、 大 きい距離値を与える。 そして、 A N D処理部 1 7 2で一定値を与えていた距離値 をこれに置き換える。 処理の結果としての、 線分要素の対応付けと、 線分要素間 の距離値をマッチング管理部 1 7 1にわたす。
認識結果出力部 1 7 5は、 マッチング管理部 1 7 1力、ら、 辞書の文字パターン の I Dまたは文字コードと、 その距離値を得ると、 距離値の小さいものを選び出 し、 距離値の順に並べ認識結果とする。 そして、 その認識結果をいつたん詳細識 別部 1 8 0にわたし再度返ってきた認識結果を得ると、 それをペンマネージャ 2 出力" 5な。
詳細識別部 1 8 0は、 要素分解部 1 5 1によって線分要素に分けた線分要素列 では消えてしまう文字の特徴で認識結果の順位を入れ換えることにある。 詳細識 別部 8は、 認識結果出力部 1 7 5力、ら、 認識結果として、 距離値の小さい辞書パ ターンの I Dまたは文字コードと、 その距離値を得ると、 各辞書パターンの詳細 な特徴について入力パターンを調べ、 必要あれば認識結果順位を入れ換えて、 結 果を認識結果出力部 1 Ί 5にわたす。
以下、 本実施例の動作手順を示す。
図 4は、 本発明のオンライン手書き文字入力装置全体の処理フ口一を示したも のである。
処理 4 0 1で液晶タブレット 1 1 0, ペンマネージャ 1 2 0, アプリケーショ ン 1 3 0によりユーザーが手書き入力した文字パターンを時系列の座標点列とし て取り込む。 処理 4 0 2, 4 0 3では、 前処理部 1 4 0により、 筆速が早かった 部分はまばら Z遅かった部分は密になつている座標点列をサンプリング処理して 座標点列密度を一定にする。 さらに、 位置とサイズを正規化する。 位置とサイズ の正規化は、 例えば、 入力された文字パターンの座標点列から文字パターンの重 心を求め、 この重心と原点とを重ね ようにパターンを平行移動して位置を正規 化し、 重心 (二原点) から各座標点までの距離の平均値が一定値になるように拡 大または縮小してサイズを正規化する。
次に処理 4 0 4で楔形近似部 1 5 0により楔形近似処理を行う。
楔形近似処理については、 図 5に示すように入力パターンを縦横の線分要素に 分解する縦横要素分解処理 5 0 1を行い、 縦横の線分要素に分解された線分を並 び替える要素並替処理 5 0 3を行う。
図 6 Aに縦横要素分解処理 5 0 1の処理フ口一を示す。
処理 6 0 1で、 入力された文字パターンから X軸, y軸方向の局部的な M I N ノ MA X値を取る点および始終点を抽出しながら線分を決定する。 つまり、 図 1 5 Aに示すようにユーザ一によつて入力された始点 aから座標点列に沿つて移動 すると、 点 bで y軸が最小となる。 次に点 bを始点として座標点列に従って移動 すると点 cで y軸が最大となる (図 1 5 B) 。 このようにして X軸, y軸方向の 局部的な M I N/MA X値を求めると図 1 5 Cのようになる。
しかしながら、 X軸, y軸方向の局部的な M I NZMA X値をとつて求めた点 を結ぶと図 1 5 Dに示すように、 明らかにユーザーが入力した文字パターンとは 異なる。 そこで、 この図 1 5 Cに示した文字パターンをユーザ一が入力した文字 パターンに近づける処理を処理 6 0 2〜処理 6 0 4にて行う。
処理 6 0 2〜6 0 5では、 求めた点で構成される線分毎に、 線分と元のスト口 一クを構成する座標点列との長さの比が予め定めたしきい値 aより小さければ、 線分による近似が不十分であると判断し、 元のストロークの中点を近似点として 捕間する。 図 1 5 Eでは、 線分 1が元のストローク 2との長さの比が予め定めた しきい値よりも小さいために近似点 dが補間されたところを示している。 このよ うにして補間したものが図 1 5 Fである。
最後に処理 6 0 6で処理 6 0 1〜6 0 5で得られた点間をつないで線分列を求 める。
尚、 近似点を補間する処理としては、 図 6 Bに示すように線分要素と元のスト ロークで囲む面積を求め、 この面積が予め定めたしき 、値よりも大きいときに近 似点を補完するようにしてもよい。
このようにして求められた線分列ほ、 図 5の処理 5 0 2で並べ替えが行われ、 図 4の処理 4 0 5で入力と辞書とのマッチングを行う。
この入力と辞書とのマッチング処理 5 0 5の詳細を図 7 Aに示す。
ここでは、 線分列と全ての辞書パターンとの距離値を求める。 処理 7 0 1では、 線分列と辞書パターンと一致する要素の距離値を求める。 たとえば、 図 7 Aの入 力楔形で示した文字パターンと、 辞書楔形で示した文字パターンであれば、 図 7
Bの太線部分が、 2つのパターンの一致する A N D部分であり、 この部分の距離 値を算出する。
この特徴要素の A N Dをとる距離値を算出する処理 7 0 1を詳細に示したもの が図 8 Aおよび 8 Bである。
処理 8 0 1で dist— cpl, dist— i— sng, dist— d— sng を初期化する。 こ こで、 dist— cpl は入力パターンの線分の要素と辞書パターンの要素とで対応付 けできたものについての距離値を保持する変数である。 図 7 Bの例で言えば、 太 線で示した部分の距離値である。 di st— i— sng は辞書パターンの要素と対応付 けできなかった入力パターンの要素についての距離値を保持する変数である。 図 7 Bの例で言えば入力パターンの細い線で示した部分である。 dist— d— sng は 入力パターンの要素と対応付けできなかった辞書パターンの要素についての距離 値を保持する変数である。
次に処理 8 0 2〜 8 0 4で cpl — i ( i ) を— 1で初期化する。 cpl ― i ( i ) は、 入力パターンの線分の要素 iと対応付けできた辞書パターンの要素番 号 jを保持する変数である。 そして、 要素の筆方向別に →†—の 4方向に分類 する。 この分類は後の処理 8 1 0で入力パターンの要素 iと対応付けする辞書パ ターンの要素 jを探す際に、 同じ分類の中から探すことで高速に探すことができ るためである。 尚、 分類はしなくても良い。
次に、 処理 8 0 5で、 分類された要素毎に線分の長さでソートしておく。 この ソートは処理 810で入力パターンの要素 iと対応付けする辞書パターンの要素 jを探す際に、 ここでソ一トした順に探すことで高速に探すことができるためで ある。 尚、 ソートはしなくてもよい。
次に処理 806〜808で、 辞書パターンについて、 処理 802〜804と同 様に、 cpl— d (j)を— 1で初期化し、 要素の筆方向別に →†—の 4方向に 分類する。
次に、 処置 810〜814でマッチングを行う。 まず処理 810で、 入力バタ ーンの要素 iと対応付ける辞書パターン要素 jを探すために、 入力パターンの要 素 iと同じ筆方向に分類されている辞書パターンの要素 jでかつ cpl— d (j) =ー1、 すなわちまだどの入力要素とも対応付けされていない要素の中で最も距 離値が小さいものを探す。 距離値はたとえば、 入力パターン要素 iが始点
(X i s, y i s) , 終点 (x i e, y i e) , 辞書パターン要素 jが始点 (x j s, y j s) , 終点 (x j e, y j e) で表される線分であるとき、 次式 のように算出する。
距離値 ( i, j) =
= *( I x i s— x j s I + I y i s— y j s l + l x i e— x j e l
+ l y i e— y j e | ) +
b*( | ( x i e— x i s ) 一 (x j e— x j s ) I + I ( y i e— y i s ) - ( y j e - y j s ) I
ここで上式の第 1項は入力の文字パターンの線分 iの位置と辞書の文字バタ一 ンの線分 jの位置についての差を求めるためであり、 筆順情報を用いずに認識す る場合は必ず必要である。 使わないと図 13A—13 Cに示すような入力パター ン 「三」 を識別することができない。
処理 81 1では、 処理 810で得た距離値 (i, j ) をしきい値と比較して、 (i, j ) の対応付けが正しいかどうかを判定する。 これは図 14に示すように 手ぶれ等から入力されたノィズ部分の要素同士が対応付けられて大きな距離値と なって誤認識してしまうことを防ぐ効果がある。 処理 81 1で対応付けが正しい とされた場合は、 処理 812で cpl— i( i) と cpl— d (j) を互いの要素番 号 jと iに設定し、 dist— cpl に距離値 (i, j) を加算する。 また、 処理 81 3で対応付けが正しくないとされた場合は処理 8 1 4で dist— i— sng に入力パ ターン要素 iが対応付けできなかったことに相当する距離値として要素 iの長さ を加算する。 長さ以外に定数を用いても、 長さをパラメータとする関数を用いて もよい。
長さをパラメータとする関数を用いれば、 図 1 4のようなノイズ要素の場合の 距離値を抑えることができ、 文字の大き 、部分を占める線分の対応付けできなか た場合には大き L、距離値を与えることができるため効果的である。
次に処理 8 1 5 8 1 7で、 辞書パターンの全ての線分 j = 0 Jについて、 cpl— d ( j ) を調べて— 1、 すなわち入力の文字パターンの線分と対応付けで きない線分について処理 8 1 4と同様に処理 8 1 7で距離値を di st— d— sng に 加算する。
このようにして、 入力の文字 ターンと辞書の文字 、"ターンとの対応する特徴 についての距離値を算出する。
次に、 図 7 Aの処理 7 0 2で辞書のみ線分の探索を行い、 距離値を算出し直す。 図 7 Cの例では辞書の文字パターンの線分で入力の文字パターンの線分と対応つ かず残っているものはないが、 あれば次に説明する処理 7 0 3の場合と同様に処 理する。
処理 7 0 3で入力のみ特徴要素の探索を行い、 距離値を算出し直す。 たとえば、 図 7 Cの入力の文字パターンと辞書の文字パターンであれば、 図中の太線部分で 示す入力パターンの特徴要素の太線で示す部分 1 2 1 4等が、 辞書パターンの 要素と対応つかず残っている。 1 2は、 辞書パターンの要素と対応が付いている 1 1と 1 3の間に入力されており、 1 1と 1 3と対応が付いている辞書パターン の要素を続け書きした部分と解釈できるため、 そう解釈できない場合の 1 2に関 する距離値より小さい値を与えるようにすると、 続け書き文字も認識しやすくな る。
このようにして、 入力パターンと辞書パターンとの間で求めた距離値に基づい て図 4の処理 4 0 6の詳細識別を行う。
つまり、 処理 4 0 4で文字を上下左右の縦棒と横棒に分類しているために力一 ブと角との違いなどパターンの曲がり具合にっ 、ての特徴は消えてしまう。 そこ で、 この処理 406によって、 辞書 1 60とは別の詳細識別辞書を用意しておき、 楔形近似によって同形状に近似される文字が認識結果に含まれている場合は、 こ の詳細識別辞書により各辞書の文字パターンの詳細な特徴について入力の文字パ タ一ンを調べ、 必要あれば認識結果順位を入れ換える処理を行う。
この詳細識別処理 406の処理フ π—を図 9に示す。
入力と辞書とのマッチング処理 405によって得た距離値の小さい順に上位 N 位までの辞書の文字パターンについてこの詳細識別を行う。 まず、 処理 90 1〜 905で距離値の小さい順に上位 N位までの辞書の文字パターンについて画不足 チェック 90 1, リンクチェック 902, 筆方向チェック 903, 角 /"カーブの チェック 904を ί亍ぅ。
図 1 0 Αおよび 1 0 Bは画不足チヱック 90 1の処理フローを示したものであ る。 この処理は、 図 1 OAに示す 「ぐ」 の濁点のように小さい要素であっても不 足した場合に大きなペナルティを距離値に加算することである。 まず、 処理 1 0 0 1で距離値 distを 0で初期化する。 また、 処理 1 002でリンク情報 link
[ ] [ ] を一 1で初期化する。
そして処理 1 003〜 1 008で全ての要素の折れ線の組み合わせについて 1 003〜1 007で端点どうしが一致している、 すなわち、 リンクしている線分 について、 そのリンク情報を 1 004または 1 006によって link [ ] [ ] に設定する。 link [i] [0] には線分 iの始点に終点が接している線分の番号 を、 また、 link [i] [1] には要素 iの終点に始点が接している線分の番号を 設定する。 すると、 同じ画数として入力された要素は、 link [i] [1] を参照 して一つながりにたどることができ、 画の始点は link [i] [0] =ー 1の値を 取る。
そこで、 処理 1 0 1 0〜 1 0 1 3により、 link [ i ] [0] =- 1の値の線分 を探し、 画頭 (k) にその線分番号を設定する。 そして、 処理 1 0 1 5〜1 02 0により、 画 (k) に含まれる線分全てが対応付けられていない場合は、 画 (k) の総長をペナルティとして距離値に足し込む。 処理 1 0 1 7では濁点が非 常に小さく入力される場合を考慮して、 しきい値より小さい場合は、 画 (k) の 総長ではなくしきい値をペナルティとして距離値に足し込む。 処理 1 0 1 5では、 線分番号 i =画頭 (k ) から l ink [ i ] [ 1 ] を参照することで画に含まれる全 ての線分をたどりながら cpl — i ( i ) または cpl — d ( j ) が— 1かどうかで 画 (k ) に含まれる線分全てが対応付けられていないかを調べる。 処理 1 0 1 6 も同様に l ink [ i ] [ 1 ] を参照して一つながりにたどりながら全ての線分の長 さを足し込んで画の総長を求める。一ここでは、 そのリンク情報を調べて l ink [ ] [ ] に設定しているが、 図 5の処理 5 0 3での要素並べ替え前に、 画に 含まれる線分番号を l ink [ ] [ ] に設定してもよい。 この場合は辞書パター ンについても l ink [ ] [ ] 情報を保持しておくと辞書容量力く増えてしまうの で、 入力パターンは要素並べ替え前に l ink [ ] [ ] 情報を設定しておき、 辞 書パターンだけ図 1 0の処理 1 0 0 6または 1 0 0 8によって l ink [ ] [ ] に設定しても良い。
図 1 1は図 9のリンクチエツク処理 9 0 2の処理フローを示したものである。 この処理は、 図 1 1に示す 「レ」 やこれに似たパターンのように要素のリンク状 況が違う場合に相当するペナルティを距離値に加算することである。 a ) のよう に辞書の文字バタ一ン 入力の文字パターンの、 一方では接続して 1つの画をな している力 もう一方では 2つの画にわかれ、 しかも違う要素と接続している場 合には最大のペナルティを与える。 違う要素と接続していない場合には、 1つの 画の方は続け書きしたと考えられるので小さめのペナルティにするとよい。 b ) のように辞書の文字パターン Z入力の文字パターンの、 一方では接続している力 もう一方では違う要素を挟んで接続している場合にもペナルティを与える。 この 時、 挟んでいる違う要素の長さが一定値以下のときは一定値、 それ以上の時は要 素の長さに応じたペナルティを与えると良い。 c ) のように同じ接続の場合はべ ナルティを与えない。
本発明は、 筆順がでたらめでも認識できる文字認識技術であるが、 筆順しか違 わない全く同じパターンを識別する場合には、 このリンク状況チヱックの処理で、 筆順情報が一致しているかどうかを辞書 、。ターンと入力パターンについて調べれ ば良い。
図 1 2は図 9の筆方向チヱック処理 9 0 3の処理フローを示したものである。 この処理は、 筆方向が逆に入力された場合でも文字を認識することである。 まず、 処理 1 2 0 1で全ての要素の筆方向を→ に揃える。 全ての要素が縦棒 Z横棒な らば ΐは に、 は→に変換し、 変換情報を記憶しておく。 斜め方向の要素があ れば、 縦棒 Ζ横棒の何れかに分類して同様に変換する。 そして、 処理 1 2 0 2で 図 7 Αに説明した入力と辞書とのマツチングを行う。 全ての辞書ノ、"ターンと行つ てもよいし、 候補の上位の辞書バタニンとのみ行ってもよい。 そして、 処理 1 2 0 3〜1 2 0 6で、 筆方向が不一致のもの、 すなわち、 元の筆方向とは違う要素 について、 ペナルティを与える。
尚、 処理 9 0 3の前に、 これを実施するかどうかを (1 ) 入力パターンの要素 の筆方向に†, —が多いか? ( 2 ) 候補順位が上位の距離値が大きく正解候補で ないのでないか?の 2点を調べて、 そうである場合だけ実施すれば、 処理時間を 節約できる。
このようにして候補に上がった辞書パターンについて画不足チヱック処理, リ ンクチヱック処理, 筆方向チェック処理, 画ダカ一ブのチヱック処理を行つた後 に、 処理 9 0 6で距離値の小さい順に候補順位を見直しする。
このように図 4の詳細識別処理 4 0 6によって処理された結果に基づいて認識 結果として距離値が小さいものから認識結果として出力する (処理 4 0 7 ) 。 産業上の利用可能性
以上説明したように本発明によれば、 ラフに書いたために、 続け書きで、 しか も筆順もでたらめで、 変形を含む文字であっても認識でき、 しかも認識処理の負 荷が小さい文字認識装置を提供できる。

Claims

請 求 の 範 囲
1. 手書き文字を入力し、 座標点列を出力する入力部と、
複数の文字コ一ドと、 各々の文字コ一ドに対応する文字パターンとを格納する 辞書と、
上記入力部から出力される座標列から、 この文字を構成する複数の要素に分解 する要素分解部と、 上記辞書に格納されたそれぞれの文字パターンについて、 辞 書に格納された文字パターンの要素と上記入力された文字パターンの要素につい て対応する距離値を求め、 対応しない要素に基づいて上記求めた距離値を修正す るマッチング部と、 距離値の小さい文字パターンを表示部に表示する処理部とを 有することを特徴とする文字認識装置。
2. 請求項 1において、
上記要素分解部は、 上記座標点列から複数の線分を生成し、 上記マッチング部 では、 上記生成された線分が長い順に上記辞書に格納された文字パタ―ンの線分 との距離値を求めることを特徴とする文字認識装置。
3. 請求項 1において、
上記要素分解部は、 上記座標点列を順に追跡し、 X軸, Y軸の少なくとも一方 が最大又は最小の値を端点とする線分に分解することを特徴とする文字認識装置。
4. 請求項 3において、
上記要素分解部は、 上記 X軸, Y軸の少なくとも一方が最大又は最小の値を端 点とする線分と上記座標点列を結んで構成したストロークの長さを比較し、 この 比較結果に基づいて上記線分の中点を端点とする 2つの線分に分解することを特 徴とする文字認識装置。
5. 請求項 1において、
上記マッチング部は、 上記文字パターンを構成する線分と、 上記辞書に格納さ れた文字パターンを構成する線分とを方向別に分類し、 この分類された線分ごと に距離値を求めることを特徴とする文字認識装置。
6. 請求項 1において、
上記マッチング部は、 上記入力された文字パターンの要素と上記辞書に格納さ れた文字パターンの要素の対応を得た後、 入力パターンあるいは辞書パターンの 要素からなる画に、 含むどの要素にも対応する要素がない場合、 含むどれかの要 素に対応する要素がある場合とくらベて、 距離値を大きく与えることを特徴とす る文字認識装置。
7. 請求項 1において、
上記マツチング部は、 上記入力された文字パターンあるいは上記辞書に格納さ れた文字パターンの要素間の接続情報を保持し、 上記入力された文字パターンの 要素と上記辞書に格納された文字パターンの要素の対応を得た後、 要素間の接続 情報を比較して、 不一致の場合は、 距離値を大きく与えることを特徴とする文字 認識装置。
8. 請求項 1において、
上記マッチング部は、 上記入力された文字 ターンあるいは上記辞書に格納さ れた文字 タ一ンの要素を一定方向に変換した後、 上記入力された文字、。ターン の要素と上記辞書に格納された文字パターンの要素のマッチングを行うことを特 徴とする文字認識装置。
9. 請求項 8において、
上記マッチング部は、 上記入力された文字 、。ターンあるいは上記辞書に格納さ れた文字 タ一ンの要素を一定方向に変換する前に上記入力された文字、°ターン あるいは上記辞書に格納された文字 、°タ一ンの要素の本来の筆方向を保持し、 上 記入力されたパターンの要素と上記辞書に格納された文字 タ一ンの要素の チングを行って対応付けした後、 要素の本来の筆方向を比較して、 不一致の場合 は、 一致の場合より距離値を大きく与えることを特徴とする文字認識装置。
1 0. 請求項 1において、
上記マッチング部は、 上記入力された文字、°ターンあるいは上記辞書に格納さ れた文字パターンの要素について最も距離値が小さい上記辞書に格納された文字 パターンあるいは上記入力された文字、'ターンの要素との対応は、 前記距離値が 一定値より大きい場合は、 対応なしとすることを特徴とする文字認識装置。
PCT/JP1998/004255 1997-09-22 1998-09-22 Dispositif de reconnaissance de caracteres WO1999016013A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020007002990A KR20010024208A (ko) 1997-09-22 1998-09-22 문자 인식 장치
US09/509,076 US6718060B1 (en) 1997-09-22 1998-09-22 Character recognizer

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP9/256433 1997-09-22
JP9256433A JPH1196301A (ja) 1997-09-22 1997-09-22 文字認識装置

Publications (1)

Publication Number Publication Date
WO1999016013A1 true WO1999016013A1 (fr) 1999-04-01

Family

ID=17292602

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1998/004255 WO1999016013A1 (fr) 1997-09-22 1998-09-22 Dispositif de reconnaissance de caracteres

Country Status (6)

Country Link
US (1) US6718060B1 (ja)
JP (1) JPH1196301A (ja)
KR (1) KR20010024208A (ja)
CN (1) CN1279796A (ja)
TW (1) TW402711B (ja)
WO (1) WO1999016013A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100283766A1 (en) * 2006-12-29 2010-11-11 Kelvin Shieh Video-based biometric signature data collecting method and apparatus

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3599180B2 (ja) * 1998-12-15 2004-12-08 松下電器産業株式会社 検索方法、検索装置および記録媒体
DE1174804T1 (de) * 2000-07-21 2002-10-02 Lg Electronics Inc Verfahren zum Suchen von Multimedia-Daten mit progressiven Histogrammen
JP4665317B2 (ja) * 2001-02-08 2011-04-06 ソニー株式会社 座標列の特徴算出方法、ならびに映像特殊効果装置の制御方法および映像特殊効果装置の制御システム
KR100456620B1 (ko) * 2001-12-20 2004-11-10 한국전자통신연구원 한글문자 인식 방법
JP4301820B2 (ja) * 2003-01-16 2009-07-22 株式会社ルネサステクノロジ 情報認識装置
AU2003900865A0 (en) * 2003-02-26 2003-03-13 Silverbrook Research Pty Ltd Methods, systems and apparatus (NPW010)
CN1317664C (zh) * 2004-01-17 2007-05-23 中国科学院计算技术研究所 乱笔顺库建立方法及联机手写汉字识别评测系统
KR100598115B1 (ko) * 2004-08-31 2006-07-10 삼성전자주식회사 고속 문자인식방법 및 장치
US7899251B2 (en) * 2006-06-05 2011-03-01 Microsoft Corporation Balancing out-of-dictionary and in-dictionary recognition scores
TWI332635B (en) 2007-01-05 2010-11-01 Compal Electronics Inc Method for determing oriention of chinese words
US7814443B2 (en) * 2007-01-16 2010-10-12 International Business Machines Corporation Graph-based pattern matching in L3GO designs
US7895518B2 (en) * 2007-04-27 2011-02-22 Shapewriter Inc. System and method for preview and selection of words
US8111922B2 (en) * 2007-06-08 2012-02-07 Microsoft Corporation Bi-directional handwriting insertion and correction
US8918734B2 (en) 2010-07-28 2014-12-23 Nuance Communications, Inc. Reduced keyboard with prediction solutions when input is a partial sliding trajectory
JP6125333B2 (ja) * 2013-05-31 2017-05-10 株式会社東芝 検索装置、方法及びプログラム
JP6094400B2 (ja) * 2013-06-25 2017-03-15 ソニー株式会社 情報処理装置、情報処理方法、および情報処理プログラム
FR3057692A1 (fr) * 2016-10-13 2018-04-20 Parrot Drones Procede et systeme electronique de detection d'une cible, programme d'ordinateur associe
CN106557766B (zh) * 2016-11-22 2020-05-19 宇龙计算机通信科技(深圳)有限公司 模糊字符处理方法、系统及电子设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6113384A (ja) * 1984-06-28 1986-01-21 Fujitsu Ltd 手書文字認識装置
JPH0962788A (ja) * 1995-08-28 1997-03-07 Ricoh Co Ltd オンライン手書き文字認識方法
JPH09114927A (ja) * 1995-10-13 1997-05-02 Seiko Epson Corp オンライン文字認識における入力文字大分類方法および装置
JPH09179938A (ja) * 1995-12-25 1997-07-11 Oki Electric Ind Co Ltd オンライン手書き文字認識装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2635582B2 (ja) 1987-03-30 1997-07-30 株式会社東芝 パターン認識方式
JP3017740B2 (ja) 1988-08-23 2000-03-13 ソニー株式会社 オンライン文字認識装置およびオンライン文字認識方法
JP3155577B2 (ja) 1991-10-16 2001-04-09 キヤノン株式会社 文字認識方法及び装置
JPH06309506A (ja) 1993-04-20 1994-11-04 Oki Electric Ind Co Ltd オンライン文字認識装置
US5684892A (en) * 1995-08-22 1997-11-04 Taguchi; Genichi Method for pattern recognition
US6104833A (en) * 1996-01-09 2000-08-15 Fujitsu Limited Pattern recognizing apparatus and method
JPH09223195A (ja) * 1996-02-06 1997-08-26 Hewlett Packard Co <Hp> 文字認識方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6113384A (ja) * 1984-06-28 1986-01-21 Fujitsu Ltd 手書文字認識装置
JPH0962788A (ja) * 1995-08-28 1997-03-07 Ricoh Co Ltd オンライン手書き文字認識方法
JPH09114927A (ja) * 1995-10-13 1997-05-02 Seiko Epson Corp オンライン文字認識における入力文字大分類方法および装置
JPH09179938A (ja) * 1995-12-25 1997-07-11 Oki Electric Ind Co Ltd オンライン手書き文字認識装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100283766A1 (en) * 2006-12-29 2010-11-11 Kelvin Shieh Video-based biometric signature data collecting method and apparatus
US8625900B2 (en) 2006-12-29 2014-01-07 Internatinoal Business Machines Corporation Video-based biometric signature data collection
US8781230B2 (en) * 2006-12-29 2014-07-15 International Business Machines Corporation Video-based biometric signature data collection

Also Published As

Publication number Publication date
US6718060B1 (en) 2004-04-06
CN1279796A (zh) 2001-01-10
JPH1196301A (ja) 1999-04-09
KR20010024208A (ko) 2001-03-26
TW402711B (en) 2000-08-21

Similar Documents

Publication Publication Date Title
WO1999016013A1 (fr) Dispositif de reconnaissance de caracteres
US10846523B2 (en) System and method of character recognition using fully convolutional neural networks with attention
US20180137349A1 (en) System and method of character recognition using fully convolutional neural networks
JP4274941B2 (ja) 手書き文字を復号化するための方法および装置
Wang et al. Optical recognition of handwritten Chinese characters by hierarchical radical matching method
US20150339525A1 (en) Process of handwriting recognition and related apparatus
US20040165777A1 (en) On-line handwriting recognizer
EP0476393A2 (en) Robust prototype establishment in an on-line handwriting recognition system
US20100189316A1 (en) Systems and methods for graph-based pattern recognition technology applied to the automated identification of fingerprints
Farah et al. Classifiers combination and syntax analysis for Arabic literal amount recognition
Koschinski et al. Segmentation and recognition of symbols within handwritten mathematical expressions
WO2018090011A1 (en) System and method of character recognition using fully convolutional neural networks
Yang et al. Combination of manual and non-manual features for sign language recognition based on conditional random field and active appearance model
Farah et al. Arabic words recognition with classifiers combination: An application to literal amounts
JP5046148B2 (ja) 画像解析装置および対象物認識方法
Ouyang et al. Learning from neighboring strokes: Combining appearance and context for multi-domain sketch recognition
Johnston et al. Sketch recognition of digital logical circuits
Kang et al. Handwritten hangul character recognition with hierarchical stochastic character representation
KR0126800B1 (ko) 한글필기체 온라인 문자인식 장치 및 방법
JP3221488B2 (ja) 検証機能付きオンライン文字認識装置
Yin et al. Lexicon-driven recognition of one-stroke character strings in visual gesture
JP2001092924A (ja) パターン認識方法および装置
JPH07107698B2 (ja) 文字認識方法
Alyahya et al. Arabic Online Handwriting Recognition: A Survey
KR940001739B1 (ko) 스트로크인식을 통한 온라인 필기체 문자인식방법

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 98811368.6

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CN KR US

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
WWE Wipo information: entry into national phase

Ref document number: 1020007002990

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 09509076

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1020007002990

Country of ref document: KR

WWR Wipo information: refused in national office

Ref document number: 1020007002990

Country of ref document: KR