JP3162154B2 - Figure conversion method using neural network - Google Patents

Figure conversion method using neural network

Info

Publication number
JP3162154B2
JP3162154B2 JP06378492A JP6378492A JP3162154B2 JP 3162154 B2 JP3162154 B2 JP 3162154B2 JP 06378492 A JP06378492 A JP 06378492A JP 6378492 A JP6378492 A JP 6378492A JP 3162154 B2 JP3162154 B2 JP 3162154B2
Authority
JP
Japan
Prior art keywords
pattern
input
neural network
character
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP06378492A
Other languages
Japanese (ja)
Other versions
JPH05266226A (en
Inventor
健彦 田中
雅之 横野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP06378492A priority Critical patent/JP3162154B2/en
Priority to KR93004319A priority patent/KR0131754B1/en
Publication of JPH05266226A publication Critical patent/JPH05266226A/en
Priority to US08/351,557 priority patent/US5708727A/en
Priority to US08/451,772 priority patent/US5999922A/en
Application granted granted Critical
Publication of JP3162154B2 publication Critical patent/JP3162154B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Character Discrimination (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明はニューラルネットによる
図形変換方式に係り、例えば図形として文字フォントを
扱う方式に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a graphic conversion method using a neural network, for example, a method of using a character font as a graphic.

【0002】[0002]

【従来の技術】人間社会で使用する図形として、複数の
図形それぞれに一定の法則に則って装飾を施した図形が
ある。古代ギリシャでは唐草模様が様々な図形の装飾と
して用いられている。このような一定法則に従った装飾
が典型的に現れるのが活字の分野である。花文字、イタ
リック、ゴシック、パイカ、エリート、プロポーショナ
ル、明朝体、教科書体等が存在する。
2. Description of the Related Art As a figure used in a human society, there is a figure in which a plurality of figures are decorated according to a certain rule. In ancient Greece, arabesque patterns are used to decorate various shapes. It is in the field of type that decorations according to such a certain rule typically appear. There are flower letters, italic, Gothic, Paika, elite, proportional, Mincho, textbooks, etc.

【0003】現在の様に電子的に文章を作成、編集する
ようになると、それらを表示したり、印字するときのた
めに、活字はフォントという、電子的な形式で記憶され
るようになっている。これらは、それぞれのワープロ、
パソコン、DTPなどのメーカごとに、あるいは、1つ
のメーカであっても、場合によっては1機種ごとに、作
成される。したがって、世の中には非常に多くのフォン
トのセットが存在する。
[0003] When texts are created and edited electronically as in the present case, prints are stored in an electronic format called a font for displaying or printing them. I have. These are the respective word processors,
It is created for each manufacturer such as a personal computer and a DTP, or even for one manufacturer, depending on the case. Therefore, there are numerous font sets in the world.

【0004】[0004]

【発明が解決しようとする課題】フォントの作成という
のは、従来は手作業で行われており、日本語の場合は、
特に漢字が数千個もあるため、1セットのフォントを作
成すれのには、多大な労力を必要としている。明朝体、
教科書体などのフォントは、書家が書いた字をドットや
関数で表現するために、ベテランの人間が1文字ずつ作
成していかなければならなかった。したがって、1セッ
トの文字を作るのには莫大なコストがかかり、大きな問
題になっていた。
Conventionally, font creation is performed manually, and in the case of Japanese,
In particular, since there are thousands of kanji, creating a set of fonts requires a great deal of labor. Mincho,
For textbooks and other fonts, veteran humans had to create characters one by one in order to represent the characters written by calligraphers with dots and functions. Therefore, it was enormous cost to make one set of characters, which was a major problem.

【0005】このような問題は、アルファベットの分野
でも同様である。アルファベットの分野ではいわゆるタ
イプフェイスが保護されており、他人の作成したタイプ
フェイスを勝手に使用することは著作権法上の問題を生
じさせる。従って、他人のタイプフェイスと異なるタイ
プフェイスを容易に作成する必要性、及び、要望は大き
い。
[0005] Such a problem is the same in the alphabet field. In the alphabet field, so-called typefaces are protected, and using typefaces created by others without permission raises copyright law problems. Therefore, there is a great need and demand for easily creating a typeface different from that of another person.

【0006】本発明の目的の一つは、このような文字フ
ォントを容易に作成することにある。 ところで、ワー
プロ等には例えばイタリックなら一種類のイタリック、
明朝体なら1種類の明朝体しか備えていないのが通常で
ある。従って、ワープロで作成した文章は、同じワープ
ロで作成するかぎり、誰が作成しても同じ文字となる。
One of the objects of the present invention is to easily create such a character font. By the way, for example, italic is one type of italic in word processors,
Mincho style usually has only one type of Mincho style. Therefore, as long as a sentence created by a word processor is created by the same word processor, the same character is used by anyone.

【0007】従って、非常に読みやすくて、能率が良い
反面では、手書きの手紙などに現れる、書き手の個性が
失われてしまう。最近、日本では、ワープロを個人的な
手紙等に使用する人が多く、個人向けに販売されたワー
プロの殆どは、お正月の年賀状などの作成に使用されて
いるというデータがある。しかし、年に1回の個人レタ
ーが、決まり切った活字で書かれると、非常に味気がな
く、もらってもうれしくない。かと言って、手書きの字
を使用するのでは、清書機であるワープロを使用した意
味がない。この点は、クリスマスカード等のグリーティ
ングカードを送る習慣のある欧米でも同様であろう。
[0007] Therefore, while being very easy to read and efficient, the individuality of the writer, which appears in handwritten letters and the like, is lost. Recently, in Japan, many people use word processors for personal letters and the like, and there are data indicating that most word processors sold to individuals are used for creating New Year's cards and New Year's cards. However, once a year's personal letter is written in bold print, it is very bland and I'm not happy to get it. However, using handwritten characters does not make sense using a word processor, which is a typesetting machine. This may be the case in Europe and the United States, where it is customary to send greeting cards such as Christmas cards.

【0008】本発明の他の目的は、理想的には、活字に
近いが、個人の癖や味を加味した、個人用のフォントを
その人の個人用ワープロの専用文字として使用できるよ
うにすることにある。
[0008] Another object of the present invention is to allow a personal font, which is ideally close to a typeface, but which takes into account personal habits and tastes, to be used as a special character for that person's personal word processor. It is in.

【0009】しかし、上記のように、フォントというも
のは手作業で作成されるので、非常に高価であり、数千
万円から数億円もする。従って、とても個人で自分のワ
ープロ専用のフォントを持つことは無理であった。
However, as described above, fonts are created by hand, and are therefore very expensive, costing tens of millions to hundreds of millions of yen. Therefore, it was impossible for a very individual to have a font dedicated to his word processor.

【0010】本発明のさらに他の目的は、個人ごとのフ
ォントを安価に提供しうるようにすることである。
Still another object of the present invention is to provide an inexpensive font for each individual.

【0011】[0011]

【課題を解決するための手段】本発明は、或る一定のス
タイルをもった文字などの図形を、サンプルとして幾つ
かニューラルネットワークに学習させることにより、提
示していない大部分の図形を自動的に作成することで、
安価に図形を提供しようとするものである。
SUMMARY OF THE INVENTION The present invention automatically learns most of the unshown figures by learning several figures such as characters having a certain style as samples as samples. By creating in
They try to provide figures at low cost.

【0012】本発明は、図1に示したように、ニューラ
ルネットワークにおいて、原型の図形群に対する希望の
装飾等を施した変形図形群を用意して、その両者間の変
形規則を学習させ、学習した変形規則に従って変形図形
を得ることを特徴とする。
According to the present invention, as shown in FIG. 1, in a neural network, a group of deformed figures in which a desired decoration is applied to a group of original figures is prepared, and a deformation rule between the two is learned. A modified figure is obtained in accordance with the modified transformation rule.

【0013】[0013]

【作用】例えば、図形として文字を扱う場合についてみ
ると、文字のフォントというものは、原型文字に対し
て、1つのスタイルに沿って変形したものである。例え
ば明朝体というのは、一の横の棒の、右の端に兜とよば
れる盛り上がりをつける、という変形を加えている。各
社のワープロでは、この変形が僅かずつ異なるが、それ
も一定のルールに沿って、全ての字について変形して作
成される。
For example, when a character is treated as a graphic, a character font is obtained by deforming a prototype character according to one style. For example, the Mincho style is a variation of the stick on the right, which has a bulge called a helmet on the right end. In word processors of various companies, this deformation is slightly different, but it is also created by deforming all characters according to a certain rule.

【0014】従って、原型の文字に、一定の変形規則に
従って、変形を加えれば、1セットのフォントができあ
がる。よって、原型の文字群に対する希望の装飾文字群
を用意して、その両者間の変形規則をニューラルネット
ワークで学習させる。そして、学習していない文字を入
力すると、学習した変形規則に従って新たな装飾を自動
的に行える。 <ニューラルネットワーク>本発明はあらゆる階層型ニ
ューラルネットワークの他、種々の形式のニューラルネ
ットワークを使用できる。ニューラルネットワークの例
は図2から図5に示した。ニューラルネットワークにつ
いては、特開平2−64788,特開平2−22638
2,特開平2−22878に開示されているものを用い
ることが出来る。但し、これらに限定されるものではな
い。
Therefore, a set of fonts is completed by modifying the original characters in accordance with a certain transformation rule. Therefore, a desired decorative character group for the prototype character group is prepared, and the transformation rules between the two are learned by a neural network. When a character that has not been learned is input, a new decoration can be automatically performed according to the learned deformation rule. <Neural Network> The present invention can use various types of neural networks in addition to any hierarchical neural network. Examples of the neural network are shown in FIGS. The neural network is disclosed in Japanese Patent Application Laid-Open Nos. 2-64788 and 2-22638.
2, one disclosed in JP-A-2-22878 can be used. However, it is not limited to these.

【0015】階層型ニューラルネットワーク(NN)と
しては、明確に区別された入力層と出力層の2つの層を
少なくとも備えている。元来、この2つの層だけでもあ
る程度の処理は可能であるが、これらの層の間に隠れ層
という1層以上の中間層を入れたものがより有効的であ
る。
[0015] The hierarchical neural network (NN) has at least two distinct layers, an input layer and an output layer. Originally, some processing is possible with only these two layers, but it is more effective to insert one or more intermediate layers called hidden layers between these layers.

【0016】ニューラルネットワーク(NN)では、入
力パタンに対して望ましい出力がでるようにネットワー
クを調整する、すなわち学習する必要があり、その方法
の代表的なものがバックプロパゲーション法である。
In the neural network (NN), it is necessary to adjust the network so as to obtain a desired output with respect to an input pattern, that is, to learn, and a typical example of the method is a back propagation method.

【0017】本発明では、ニューラルネットワーク(N
N)は学習部(A)を有し、この学習部(A)での学習
が終了した後、重み更新部13の重みを使って未学習の
データを評価するものが好適に使用される。
In the present invention, the neural network (N
N) includes a learning unit (A), and a device that evaluates unlearned data using the weight of the weight updating unit 13 after the learning in the learning unit (A) is completed is preferably used.

【0018】ここで、前記学習部(A)は、前記ニュー
ラルネットワーク(NN)への入力とそれに対する望ま
しい出力である教師パタンを保持する入出力パタン保持
部10と、この入出力パタン保持部10の入力パタンを
ニューラルネットワーク(NN)に入力し出力値を計算
する学習実行部11と、所定の学習規則と学習パラメー
タを保持する学習パラメータ保持部12と、前記学習規
則及び学習パラメータに基づいて、前記学習実行部11
でのネットワークの出力と入出力パタン保持部10の教
師パタンとを比較し、ネットワークの重みを更新する重
み更新部13と、更新されたネットワークの重みを任意
の学習段階で記憶する結合の重み記憶部14とを備えて
た構成を例示できる。
Here, the learning unit (A) includes an input / output pattern holding unit 10 for holding an input to the neural network (NN) and a teacher pattern which is a desired output for the input / output, and an input / output pattern holding unit 10 for holding the input / output pattern. Is input to the neural network (NN) to calculate an output value, a learning parameter holding unit 12 for holding predetermined learning rules and learning parameters, and a learning rule and a learning parameter based on the learning rules and the learning parameters. The learning execution unit 11
A weight updating unit 13 that compares the output of the network with the teacher pattern of the input / output pattern holding unit 10 and updates the weight of the network, and a weight storage of the connection that stores the updated network weight at an arbitrary learning stage. A configuration including the unit 14 can be exemplified.

【0019】また、階層型ニューラルネットワーク(N
N)の一つの形態として、Elman型リカレントネッ
トワークを用いることができる。Elman型リカレン
トネットワークとは、図示しないが、入力層、隠れ層、
出力層を有し、かつ、隠れ層の出力データを複写して保
持するとともに保持した出力データを再度隠れ層に入力
するコンテキスト層を備えたニューラルネットワーク
(NN)である。入力層、隠れ層、出力層の各層はそれ
ぞれ1つ以上のノードを有している。
Further, a hierarchical neural network (N
As one form of N), an Elman-type recurrent network can be used. Although not shown, the Elman-type recurrent network includes an input layer, a hidden layer,
This is a neural network (NN) having an output layer and a context layer for copying and holding the output data of the hidden layer and inputting the held output data to the hidden layer again. Each of the input layer, the hidden layer, and the output layer has one or more nodes.

【0020】そして、時刻tにおける隠れ層の出力値w
をコンテキスト層にコピーし、このコンテキスト層と入
力層の値が時刻t+1における隠れ層の出力となる。従
って、このコンテキスト層が過去の入力データの履歴を
保持することになる。 <入力パタン、教師パタンの作成>本発明において、原
型となる図形(入力パタン)及びそれを装飾・変形した
図形(教師パタン)は一定の電子的な方法、図形の線図
を表現するイメージデータやベクトルデータでニューラ
ルネットワークに入力される。
Then, the output value w of the hidden layer at time t
Is copied to the context layer, and the values of the context layer and the input layer become the output of the hidden layer at time t + 1. Therefore, this context layer holds the history of past input data. <Creation of Input Pattern and Teacher Pattern> In the present invention, a figure (input pattern) serving as a prototype and a figure (teacher pattern) obtained by decorating and deforming the pattern are image data expressing a certain electronic method and a diagram of the figure. And vector data are input to the neural network.

【0021】従って、本発明において、入力装置とし
て、例えばイメージスキャナ、マウス、トラックボー
ル、キーボード、ライトペン、手書き入力装置、撮像装
置を有する画像処理装置等を使用できる。
Therefore, in the present invention, as the input device, for example, an image scanner, a mouse, a trackball, a keyboard, a light pen, a handwriting input device, an image processing device having an imaging device, and the like can be used.

【0022】イメージスキャナでは、取り込んだイメー
ジ情報をそのままイメージデータ(ドットデータ)とし
て使用し、あるいは、ベクトルデータに変換して使用す
る。マウス、トラックボール、キーボードは画面のカー
ソルを制御して直接ベクトルデータを入力するものであ
る。
In the image scanner, the captured image information is used as it is as image data (dot data) or is converted into vector data for use. The mouse, trackball, and keyboard control the cursor on the screen and directly input vector data.

【0023】ライトペンは文字を画面に直接描くことが
できる。手書き入力装置は、描画用のパッドあるいはス
クリーンを有し、パッドあるいはスクリーン上に描いた
手書き図形をドットイメージデータとして取り込む。取
り込まれたドットイメージデータはそのまま使用しても
よいし、ベクトルデータに変換して使用してもよい。
The light pen can draw characters directly on the screen. The handwriting input device has a pad or a screen for drawing, and takes in a handwritten figure drawn on the pad or the screen as dot image data. The captured dot image data may be used as it is, or may be used after being converted into vector data.

【0024】手書き入力方式として、スタイラス画面の
ペンタッチ方式で入力する方法たある。撮像装置を有す
る画像処理装置を使用する場合、原型図形あるいは装飾
・変形した図形をTVカメラなどの撮像装置で撮し、こ
れを画像処理することで、描画をドットイメージデータ
として、さらにはベクトルデータとして得る。
As a handwriting input method, there is a method of inputting by a pen touch method on a stylus screen. When using an image processing apparatus having an image pickup device, a prototype figure or a decorated / deformed figure is taken by an image pickup apparatus such as a TV camera, and the image is processed to render the drawing as dot image data, and further, as vector data. Get as.

【0025】文字などの図形をベクトルデータでニュー
ラルネットワークに入力し、希望の変形規則で装飾処理
する場合、次の2つの方式が考えられる。 (パタン作成方式1)(図6から図8に示す) n個の連続した線分情報として与えられた文字などの図
形のストロークに関するベクトルデータを、連続した線
分の集合である一つのストローク毎に処理の最小単位で
あるセグメントとしてとらえ、ニューラルネットワーク
の入力パタンと教師パタンに対応させて、学習させるこ
とにより、文字のストロークを変換するニューラルネッ
トワークを構成する。
When a graphic such as a character is input as vector data to a neural network and subjected to decoration processing according to a desired deformation rule, the following two methods are conceivable. (Pattern creation method 1) (shown in FIGS. 6 to 8) Vector data on strokes of a figure such as a character given as n pieces of continuous line segment information is converted into a set of continuous line segments for each stroke. A neural network for converting a stroke of a character is constructed by learning as a segment which is a minimum unit of processing, and learning it in correspondence with an input pattern and a teacher pattern of the neural network.

【0026】方式1では、一つのストロークを一つのセ
グメントとして扱うので、ストロークを折れ線近似法で
複数の線分で近似する場合、その複数の線分を、その起
点座標、長さ、角度で特定し、その後、前の線分に続く
線分を角度と長さ情報で特定する。従って、ニューラル
ネットワークの入出力ノード数は、n個の線分それぞれ
の長さと角度の数+最初の線分の起点座標に対応する数
となる。
In the method 1, since one stroke is treated as one segment, when the stroke is approximated by a plurality of line segments by the polygonal line approximation method, the plurality of line segments are specified by their starting coordinates, length, and angle. Then, a line segment following the previous line segment is specified by the angle and length information. Therefore, the number of input / output nodes of the neural network is the number of lengths and angles of each of the n line segments plus the number corresponding to the starting point coordinates of the first line segment.

【0027】そして、方式1ではその複数の一つのスト
ロークが固定セグメント数に対応するので、ストローク
を複数の直線で近似する場合、図6で示したように、ベ
クトルの長短に係わらず同じ次数(直線の数)で近似し
なければならない。この場合、対応するストロークを探
してストロークの長さに応じ、線形にマッピングするこ
とができる。
In the method 1, since the plurality of one strokes correspond to the fixed segment number, when the stroke is approximated by a plurality of straight lines, as shown in FIG. (The number of straight lines). In this case, it is possible to search for a corresponding stroke and linearly map according to the length of the stroke.

【0028】この方式1では、図8のように、一つのス
トロークすべてのデータをニューラルネットワークの入
力と出力に対応させているため、1回の処理で目的とす
るストローク情報が得られる。
In this method 1, as shown in FIG. 8, all the data of one stroke is made to correspond to the input and output of the neural network, so that the desired stroke information can be obtained by one process.

【0029】(パタン作成方式2)(図9から図12に
示す) n個の連続した線分情報として与えられた文字などの図
形のストロークに関するベクトルデータを、ストローク
を構成する各線分毎に処理の最小単位であるセグメント
としてとらえてn個線分を表すのパタンデータの系列と
見なして、各線分のベクトルデータ毎それぞれニューラ
ルネットワークに学習させることで、n個のストローク
の集合である全体の文字ストロークを変換するニューラ
ルネットワークを構成する。
(Pattern creating method 2) (shown in FIGS. 9 to 12) Vector data relating to a stroke of a figure such as a character given as n continuous line segment information is processed for each line segment constituting the stroke. Is considered as a sequence of pattern data representing n line segments, and the neural network learns each vector data of each line segment, so that the entire character is a set of n strokes. Construct a neural network that converts strokes.

【0030】方式2では、一つのストロークを構成する
各線分のそれぞれを一つのセグメントとして扱うので、
ストロークを折れ線近似法で複数の線分で近似する場
合、その複数の線分を、その起点座標、長さ、角度でそ
れぞれ特定する。
In method 2, since each line segment constituting one stroke is treated as one segment,
When a stroke is approximated by a plurality of line segments by the polygonal line approximation method, the plurality of line segments are specified by their starting point coordinates, length, and angle.

【0031】この方式2では、一回に処理する入力と出
力ベクトルデータを一つのストロークを構成する各線分
のベクトルデータに絞るため、ニューラルネットワーク
の入出力ノード数をそれぞれ起点座標、長さ、角度の数
に絞ることができ、ネットワークを簡素化し、1回当り
の処理時間を小さくできる。しかし、目的とするストロ
ーク情報を得るためにネットワークを線分の数だけn回
動作させる必要がある。
In the method 2, in order to reduce the input and output vector data processed at one time to the vector data of each line segment constituting one stroke, the number of input / output nodes of the neural network is set to the starting coordinates, length, and angle, respectively. , The network can be simplified, and the processing time per operation can be reduced. However, it is necessary to operate the network n times by the number of line segments in order to obtain desired stroke information.

【0032】方式2において、2つのストロークを処理
する場合、2番目のストロークの起点は、1番目のスト
ロークを示す出力から求めるのが好ましい。例えば、図
12に示したように、1番目のストロークをX0,Y0
0,A0の入力に対する出力がX1,Y1,L1,A1であ
るとき、2番目のストロークの入力X2,Y2,L2
2,のうち、起点座標を示すX2,Y2は以下の式で求
めるのがよい。
In the method 2, when two strokes are processed, the starting point of the second stroke is preferably obtained from an output indicating the first stroke. For example, as shown in FIG. 12, the first stroke is defined as X 0 , Y 0 ,
When the outputs for the inputs of L 0 and A 0 are X 1 , Y 1 , L 1 and A 1 , the inputs X 2 , Y 2 , L 2 , and
Among A 2 , X 2 and Y 2 indicating the starting point coordinates are preferably obtained by the following formula.

【0033】 X2=X1+L1×cos(A1) ・・・・(1) Y2=Y1+L1×sin(A1) ・・・・(2) 以上、パタン作成方式として、2つ方式をを説明した
が、この2つを比較すると図13のようになる。ストロ
ークの認識出力においてどちらが有利になりかは、幾つ
のセグメントで近似するか、また実行マシンの性能に依
存するので、方式1と方式2とでどちらが優れているか
を論じることはできない。
X 2 = X 1 + L 1 × cos (A 1 ) (1) Y 2 = Y 1 + L 1 × sin (A 1 ) (2) The two methods have been described, but FIG. 13 shows a comparison between the two methods. It is not possible to argue which is better in method 1 or method 2 because which segment is more advantageous in the stroke recognition output depends on how many segments are approximated and the performance of the execution machine.

【0034】なお、入力パタン、教師パタンの特徴点抽
出の技術として、特開昭62−216092、特開昭6
2−164183、特開昭62−208191、特開昭
62−92089、特開昭62−92084等に記載さ
れた技術を使用できる。 <ニューラルネットワークによる教師パタンの設定方法
>本発明では、ニューラルネットワークで図形の変形規
則を学習するが、その場合の教師パタンの選定の仕方に
より、学習方法は以下の2種に分けられる。
As a technique for extracting feature points of an input pattern and a teacher pattern, Japanese Patent Laid-Open Nos. 62-216092 and
Techniques described in JP-A-2-164183, JP-A-62-208191, JP-A-62-92089, JP-A-62-92084 and the like can be used. <Method of Setting Teacher Pattern Using Neural Network> In the present invention, the rule of changing a figure is learned using a neural network. In this case, the learning method is divided into the following two types depending on how the teacher pattern is selected.

【0035】原型の図形群を入力パタンとし、この図
形群に対して希望の装飾等を施した図形群を教師パタン
とした場合(図14から図30)。
A case where a group of prototype figures is used as an input pattern, and a group of figures obtained by applying a desired decoration or the like to the group of figures is used as a teacher pattern (FIGS. 14 to 30).

【0036】この学習方法をより具体的に説明すると、
まず、原型の図形群(A1,A2,..An)を用意す
る。原型となる図形は一定の電子的な方法で表現され
る。例えば、図形の線図を表現するイメージデータやベ
クトルデータである。
The learning method will be described more specifically.
First, a prototype figure group (A1, A2,... An) is prepared. The prototype figure is represented in a certain electronic way. For example, image data or vector data expressing a diagram of a figure.

【0037】つぎに、その原型図形を装飾・変形した図
形サンプル群(B1,B2,・・Bn)を用意する。こ
れも、イメージデータやベクトルデータなどの一定の電
子的な方法で表現される。
Next, a group of graphic samples (B1, B2,... Bn) obtained by decorating and deforming the prototype graphic is prepared. This is also represented by a certain electronic method such as image data or vector data.

【0038】そして、ニューラルネットワークの入力
に、サンプルのB1,B2,・・Bnに対応する原型図
形群の部分集合A1,A2,..Anを与える。教師パ
タンには、B1,B2,..Bnを与える。このように
して、学習を行えば、AからBへの変形規則が、ネット
ワークデータとして生成される。
Then, the subsets A1, A2,... Of the prototype figure group corresponding to the samples B1, B2,. . Give An. The teacher patterns include B1, B2,. . Give Bn. When learning is performed in this manner, a transformation rule from A to B is generated as network data.

【0039】つぎに、学習していない、Aの集合の残り
全てを、学習済みのニューラルネットに次々に与える。
すると、学習させた変形規則に従った図形群Bが得られ
る。 原型の図形群を入力パタンとし、この図形群とこの図
形群に対して希望の装飾等を施した図形群との差分を教
師パタンとした場合(図31から図35)。
Next, all the rest of the set of A, which have not been learned, are successively given to the trained neural net.
Then, a figure group B according to the learned deformation rule is obtained. A case where a group of prototype figures is used as an input pattern, and a difference between this group of figures and a group of figures obtained by applying a desired decoration or the like to a group of teachers is used as a teacher pattern (FIGS. 31 to 35).

【0040】この学習方法をより具体的に説明すると、
まず、原型の図形群(A1,A2,..An)を用意す
る。原型となる図形は一定の電子的な方法で表現され
る。例えば、図形の線図を表現するイメージデータやベ
クトルデータである。
This learning method will be described more specifically.
First, a prototype figure group (A1, A2,... An) is prepared. The prototype figure is represented in a certain electronic way. For example, image data or vector data expressing a diagram of a figure.

【0041】つぎに、その原型図形を装飾・変形した図
形サンプル群(B1,B2,・・Bn)を用意する。こ
れも、イメージデータやベクトルデータなどの一定の電
子的な方法で表現される。
Next, a group of graphic samples (B1, B2,... Bn) obtained by decorating and deforming the prototype graphic is prepared. This is also represented by a certain electronic method such as image data or vector data.

【0042】そして、ニューラルネットワークの入力
に、サンプルのB1,B2,・・Bnに対応する原型図
形群の部分集合A1,A2,..Anを与える。原型図
形Aと変形図形Bの差分の情報を与える場合には、 T=B−A ・・・(3) の項を基本にした多項式として変換すればよい。つま
り、最も単純な変換式は(3)式である。
Then, the subsets A1, A2,... Of the prototype figure group corresponding to the samples B1, B2,. . Give An. When information on the difference between the prototype graphic A and the deformed graphic B is given, it may be converted as a polynomial based on the term T = BA (3). That is, the simplest conversion equation is equation (3).

【0043】しかし、一般にはTがニューラルネットワ
ークの出力層ユニットの値域を越えてしまう場合が生じ
るため、(3)式は、すべての学習パタンの生成に適応
できない。
However, since T generally exceeds the range of the output layer unit of the neural network, equation (3) cannot be applied to generation of all learning patterns.

【0044】そこで、通常はどのようなデータでも適応
が可能な(4)式を用いるのがよい。 ただし、 入力パタンに対する教師パタンとして、(4)式を与え
ることにより、入力に対して何も変化を起こさせない場
合には、C:(シグモイドの上限−下限)/2が出力と
して得られる。
Therefore, it is usually preferable to use the equation (4) that can adapt any data. However, By giving equation (4) as a teacher pattern for the input pattern, if no change is made to the input, C: (upper limit−lower limit of sigmoid) / 2 is obtained as the output.

【0045】シグモイド関数の例を(5)式に示す。 i(i=1,2,・・・,n):ニューロン間の結合 θ:しきい値 この式は、図5のように表される。この図のようにシグ
モイド関数は、0から1を値域とすることが多いため、
このC:(シグモイドの上限−下限)/2の値は0.5
となることが多い。本発明では、原型パタンに対するズ
レを学習させたいので、極端な場合を除いて、教師パタ
ンは0.5+αとなる。ニューラルネットワークの重み
の初期値は通常0を中心とした一様分布の乱数で与える
ために、初期出力は0.5付近であることが多い。この
ことは、収束する地点が初期値から近いことを示し、す
なわち収束が速いことを示している。
An example of the sigmoid function is shown in equation (5). w i (i = 1, 2,..., n): connection between neurons θ: threshold This equation is expressed as shown in FIG. As shown in this figure, the sigmoid function often has a value range from 0 to 1.
The value of C: (upper limit of sigmoid-lower limit) / 2 is 0.5
Often becomes. In the present invention, since it is desired to learn the deviation from the prototype pattern, the teacher pattern is 0.5 + α except in extreme cases. Since the initial value of the weight of the neural network is usually given by a random number having a uniform distribution centered on 0, the initial output is often around 0.5. This indicates that the convergence point is close to the initial value, that is, that the convergence is fast.

【0046】教師パタンを上記のような差分で与えな
い場合、すなわち上記のように希望出力値をそのまま
与える場合には、希望の動作を得るためには、かなり多
くの学習パタンを用意しなければならない。差分を教師
パタンとするの方式は用意する学習パタンの面でも実
行時の動作の安定性という面でもよい。ニューラルネッ
トワークによる出力を希望出力に変換する場合に、上記
のような与えかたをすることにより、計算処理が最も単
純となる。 <制御パラメータの入力>図16で示したように、ニュ
ーラルネットワークには前記入力パタンを入力する入力
ノードの他に、制御パラメータを入力するノードを備え
るのが好ましい。
In the case where the teacher pattern is not given by the difference as described above, that is, when the desired output value is given as it is as described above, in order to obtain the desired operation, it is necessary to prepare a considerably large number of learning patterns. No. The method of using the difference as the teacher pattern may be in terms of a prepared learning pattern or stability of operation at the time of execution. When converting the output from the neural network to the desired output, the above-described giving method simplifies the calculation process. <Input of Control Parameter> As shown in FIG. 16, the neural network preferably includes a node for inputting a control parameter in addition to an input node for inputting the input pattern.

【0047】制御パラメータは通常0から1の範囲で与
えられる。シグモイドの閾値が通常0から1までなので
例では0から1で与えている。よって、値そのものには
意味がない。
The control parameters are usually given in the range of 0 to 1. Since the sigmoid threshold is usually from 0 to 1, it is given from 0 to 1 in the example. Therefore, the value itself has no meaning.

【0048】そして、制御パラメータに設定する値が1
に近いほど、出力は教師パタンに近くなり、制御パラメ
ータに設定する値が0に近づくほど、出力は入力パタン
に近くなる。すなわち、制御パタンの値の大小で入力パ
タンと教師パタンとの間の中間的な出力を得ることがで
きる。
The value set for the control parameter is 1
, The output is closer to the teacher pattern, and as the value set for the control parameter is closer to 0, the output is closer to the input pattern. That is, an intermediate output between the input pattern and the teacher pattern can be obtained depending on the value of the control pattern.

【0049】制御パラメータを入力するノードはニュー
ラルネットワークに1つあるいは2以上設けてもよい。
より具体的には、制御パラメータを入力する制御パラメ
ータ入力用ノードを少なくとも1つ設ける一方、入力パ
タンと教師パタンの組を2以上用意し、しかも、各入力
パタンと教師パタンの組は、入力パタン同士が同一で、
教師パタン同士が異なるものとし、その組の内、第1の
組の学習時には制御パラメータを任意のXとし、第2の
組の学習時には制御パラメータを任意のYとし、未学習
の入力パタンを与えるとき、制御パラメータにXとYの
間の中間値を与えることで、学習させたパタンセットの
中間的な値を出力させる。 <学習収束の高速化>原型図形の集合Aから変形図形の
集合Bに未知の変換規則があると考えられるとき、原型
図形の集合Aの部分集合A0 に対し、個々の要素につい
て1対1の対応関係がある変形図形の集合B0 を選びだ
し、集合Aの部分集合A0 を入力パタンとし、集合B0
を教師パタンとして、ニューラルネットワークに学習さ
せ、A 0 の母集合AからB0 の母集合Bへの未知の変換
規則を推定させ、推定した変換規則を用いて、変形図形
の集合Bを得る場合、以下のようにするとニューラルネ
ットワークのよる学習の高速化が図れる。
A node for inputting a control parameter is a new node.
One or two or more may be provided in the neural network.
More specifically, a control parameter for inputting a control parameter
While at least one data input node is provided, the input
Prepare two or more pairs of tongue and teacher pattern, and input each
In the set of patterns and teacher patterns, the input patterns are the same,
Teacher patterns are different from each other, and the first
When learning a set, the control parameter is set to an arbitrary X, and the second
When learning a set, set the control parameter to any Y
When the input pattern of X and Y is given,
By giving an intermediate value between
Output an intermediate value. <Acceleration of learning convergence>
When it is considered that set B has an unknown conversion rule, the prototype
Subset A of set A of figures0 For each element
Of deformed figures having a one-to-one correspondence0 Choose
And a subset A of set A0 Is an input pattern, and set B0 
Is learned by the neural network as a teacher pattern.
A 0 Sets A to B of0 Unknown transformation into a population B
The rule is estimated, and the transformed figure is
To obtain the set B of
Network speeds up learning.

【0050】まず、原型図形の集合Aの部分集合A0
入力パタンとし、これに対して入力パタンと同一の部分
集合A0 を教師パタンとしてニューラルネットワークに
与え学習させる。このような教師パタンは入力パタンと
矛盾しない。従って必ず収束する。また、実際の学習回
数も少なくてすむ。この学習による重みを初期値とし
て、今度は、前記集合A0 を入力パタンとし、前記集合
0 を教師パタンとしってニューラルネットワークに与
え、前記A0 からB0 への未知の変形規則を学習させ
る。
First, a subset A 0 of the set A of prototype figures is set as an input pattern, and a subset A 0 identical to the input pattern is given to the neural network as a teacher pattern for learning. Such a teacher pattern is not inconsistent with the input pattern. Therefore, they always converge. In addition, the actual number of times of learning can be reduced. With the weight obtained by this learning as an initial value, the set A 0 is used as an input pattern, and the set B 0 is used as a teacher pattern and given to the neural network, and the unknown transformation rule from A 0 to B 0 is learned. Let it.

【0051】このように、学習の段階を2段階に分け、
1段目の学習後のネットワーク構造を保存し、2段目の
学習の初期値とすることで、2段目の学習回数を減らす
ことがおおむねできる。
As described above, the learning stage is divided into two stages.
By saving the network structure after the first-stage learning and setting it as the initial value of the second-stage learning, the number of times of the second-stage learning can be substantially reduced.

【0052】その結果、原型図形の集合Aの部分集合A
0 を入力パタンとし、最初から前記集合B0 を教師パタ
ンとして、前記A0 からB0 への未知の変形規則を学習
させる場合に比較して、学習のための収束時間が少なく
てすむことが多い。
As a result, a subset A of the set A of prototype figures
0 may be used as an input pattern, and the set B 0 may be used as a teacher pattern from the beginning to learn the unknown transformation rule from A 0 to B 0 . Many.

【0053】図36に、学習高速化の原理を示す。1段
目の学習では図の点線のようなエナルギー空間を持って
おり、収束した時点では重みは点1の位置にある。2段
目の学習の開始点は点2となり、2段目の学習段階の収
束点は点3となり、一般的に与えられるランダムな重み
(例えば、点4のような場所)から学習を開始する場合
より収束が速い。
FIG. 36 shows the principle of speeding up learning. The first-stage learning has an energy space as shown by the dotted line in the figure, and the weight is at the position of point 1 when the convergence is achieved. The starting point of the second-stage learning is point 2, the convergence point of the second-stage learning stage is point 3, and learning is started from a generally given random weight (for example, a location like point 4). Convergence is faster than in the case.

【0054】また、1段目の学習は学習パタン数が少な
いのでエネルギー空間が単純で、収束しやすいという利
点もある。この結果、図37,図38のように、前記の
ように学習を2段にしな図い37(a)、図38(a)
の場合は、学習収束までの学習回数が10007回で長
時間かかるのに対し、1段目で初期値を設定する本方式
では学習収束までの回数が752回で短時間となってい
る。
The first-stage learning has the advantage that the energy space is simple and the convergence is easy because the number of learning patterns is small. As a result, as shown in FIGS. 37 and 38, learning is not performed in two stages as described above.
In the case of (1), the number of times of learning up to learning convergence is 10007, and it takes a long time. On the other hand, in this method in which the initial value is set at the first stage, the number of times until learning convergence is 752, which is short.

【0055】なお、この学習方式では制御パラメータを
入力パタンと同時に入力する場合に限定される。これ
は、この方法を適用する場合には、以下の2つの条件が
必要であることによる。 第1学習グループの学習が容易に収束する保証があ
る。 第1学習グループと第2学習グループのデータ構造
が似ている。 (つまり、学習1段階と学習2段階のエネルギー空間が
似ている。)本方式では、この2つの条件が明らかに満
たされているので、有効に利用することが可能である。 <一部共通データの学習>標準的なデータでは、データ
の規格化が行われているためにデータの一部が共通とな
っている場合があり、学習パタンの作成方法によっては
入力パタンが全く同じとなる場合がある。
Note that this learning method is limited to the case where the control parameters are input simultaneously with the input pattern. This is because the following two conditions are required when applying this method. There is a guarantee that the learning of the first learning group will easily converge. The data structures of the first learning group and the second learning group are similar. (That is, the energy spaces of the learning first stage and the learning two stage are similar.) In this method, since these two conditions are clearly satisfied, it is possible to effectively use it. <Study of some common data> In standard data, a part of the data may be common due to the normalization of the data. May be the same.

【0056】例えば、図形データとして、文字を学習さ
せる場合などである。具体的に説明すると、人の個人文
字を学習させ、文字フォント作成システムを構築しよう
とするとき、例えば図40のように、「銀」と「銅」を
学習パタンとして選択したとする。この場合、それぞれ
の文字について個人文字を登録して学習することになる
が「金」の部分が同一であるため入力パタンは全く同じ
になる。
For example, there is a case where a character is learned as graphic data. More specifically, suppose that when learning human personal characters and constructing a character font creation system, “silver” and “copper” are selected as learning patterns, for example, as shown in FIG. In this case, individual characters are registered and learned for each character, but the input pattern is exactly the same because the "gold" portion is the same.

【0057】これに対して、個人の入力は同じ「金」で
も全く同じパタンで入力されることはない。従って、同
じ入力パタンに対して異なる教師パタンが対応する現象
が生じる。
On the other hand, an individual input is not input in exactly the same pattern even with the same “gold”. Therefore, a phenomenon occurs in which different teacher patterns correspond to the same input pattern.

【0058】これでは、入力に対し教師が2つあること
となりどちらかを真の教師としてよいかわからずいくら
学習回数を増やしても学習は収達しない。従って、学習
をどの時点で終了してよいか判断できない。
In this case, there are two teachers for the input, and it is not clear whether one of them is a true teacher. Even if the number of times of learning is increased, learning is not achieved. Therefore, it is not possible to determine at which point the learning can be ended.

【0059】そこで、標準の図形データ群に対して、多
様性のある図形データ群を学習させるニューラルネット
ワーク学習装置においては、複数の入力図形パタン同士
で図形パタンの一部が共通する場合、その共通部を有す
る入力図形パタン群の内、1つの図形パタンのみを学習
パタンとして選択し、前記ニューラルネットワーク学習
装置に学習させるようにするとよい。
Therefore, in a neural network learning apparatus for learning a variety of graphic data groups from a standard graphic data group, when a part of the graphic pattern is common to a plurality of input graphic patterns, the common It is preferable to select only one graphic pattern from a group of input graphic patterns having a part as a learning pattern and to make the neural network learning device learn.

【0060】この場合、前記入力図形パタン同士を比較
し、一方の図形パタンに対する他方の図形パタンの距離
を算出し、距離が一定値以下の図形パタンを一つのグル
ープとし、そのグループ中の1つを選択する方式を例示
できる。
In this case, the input graphic patterns are compared with each other, the distance between one graphic pattern and the other graphic pattern is calculated, and the graphic patterns whose distances are equal to or less than a certain value are grouped into one group. Can be exemplified.

【0061】図39に同じ入力パタンに対して複数の教
師パタンが存在する場合の処理を示す。この図で、縦
軸、横軸はパタンの空間であることを示す以外の意味は
ない。から(10)までは各入力パタンを示す。//
及び/(10)の各パタン群は、互いに近い距離にある
ので一つのグループとみなす。この場合、//の
なかから一つ、/(10)の中から一つ選んで学習に使用
する。
FIG. 39 shows a process when a plurality of teacher patterns exist for the same input pattern. In this figure, the vertical and horizontal axes have no meaning other than indicating that the space is a pattern. (10) to (10) show each input pattern. //
Since the pattern groups of and / (10) are close to each other, they are regarded as one group. In this case, one of // and one of / (10) are selected and used for learning.

【0062】[0062]

【実施例】以下、本発明の好適実施例を説明するが、個
々の実施例を説明する前に、まず、実施例において使用
したニューラルネットワークを説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described below. Before describing individual embodiments, first, a neural network used in the embodiments will be described.

【0063】本実施例で使用した階層型ニューラルネッ
トワーク(NN)は、図2のように、学習部(A)を有
し、この学習部(A)での学習が終了した後、重み更新
部13の重みを使って未学習のデータを評価する。
The hierarchical neural network (NN) used in this embodiment has a learning unit (A) as shown in FIG. 2, and after the learning by this learning unit (A) is completed, the weight updating unit Evaluate the unlearned data using the 13 weights.

【0064】まず、ニューラルネットワーク(NN)
は、入力層、隠れ層、出力層を有し、各層はそれぞれ複
数のノード(ユニット)を有している。各層を構成する
複数のユニットは互いにある重みで結合されている。こ
のネットワークに入力パタンと望ましい出力パタン(教
師パタン)の組を与えることによりネットワークの重み
を学習させることができる。
First, a neural network (NN)
Has an input layer, a hidden layer, and an output layer, and each layer has a plurality of nodes (units). A plurality of units constituting each layer are connected to each other with a certain weight. By giving a pair of an input pattern and a desired output pattern (teacher pattern) to this network, the weight of the network can be learned.

【0065】学習は以下のように進められる。まず、ネ
ットワークにある入力パタンを与え出力を得る。実際の
出力と正しい出力の差の情報をとりだす。するとネット
ワークは正しい出力値と実際の出力値の差が減少するよ
うにネットワークの内部構造(結合の強さ=重み)を調
整する。これを何度も繰り返すことにより、ネットワー
クはある入出力関係を満たすような重みを自動的に探索
していく。この学習アルゴリズムがバックプロパゲーシ
ョン法である。
The learning proceeds as follows. First, an input pattern is given to the network to obtain an output. Extract information on the difference between the actual output and the correct output. Then, the network adjusts the internal structure of the network (the strength of connection = weight) so that the difference between the correct output value and the actual output value is reduced. By repeating this many times, the network automatically searches for weights that satisfy a certain input / output relationship. This learning algorithm is the back propagation method.

【0066】このようにして学習したネットワークを用
いると、学習させた入力パタンについては表示した正し
い出力を返すが更に学習させていない入力パタンについ
ても学習した入出力パタンに準じた出力パタンを返す。
これがニューラルネットワーク(NN)の大きな特徴と
なっている。
When the network trained in this way is used, the displayed correct output is returned for the learned input pattern, but an output pattern similar to the learned input / output pattern is returned for the input pattern that has not been further learned.
This is a major feature of the neural network (NN).

【0067】このように、ニューラルネットワーク(N
N)は学習部(A)を有し、この学習部(A)での学習
が終了した後、重み更新部13の重みを使って未学習の
データを処理する。
As described above, the neural network (N
N) has a learning unit (A), and after learning in the learning unit (A) is completed, processes unlearned data using the weight of the weight updating unit 13.

【0068】ここで、学習部(A)は、前記ニューラル
ネットワーク(NN)への入力とそれに対する望ましい
出力である教師パタンを保持する入出力パタン保持部1
0と、この入出力パタン保持部10の入力パタンをニュ
ーラルネットワーク(NN)に入力し出力値を計算する
学習実行部11と、所定の学習規則と学習パラメータを
保持する学習パラメータ保持部12と、前記学習規則及
び学習パラメータに基づいて、前記学習実行部11での
ネットワークの出力と入出力パタン保持部10の教師パ
タンとを比較し、ネットワークの重みを更新する重み更
新部13と、更新されたネットワークの重みを任意の学
習段階で記憶する結合の重み記憶部14を備えている。
Here, the learning unit (A) comprises an input / output pattern holding unit 1 for holding an input to the neural network (NN) and a teacher pattern which is a desired output for the input.
0, a learning execution unit 11 for inputting the input pattern of the input / output pattern storage unit 10 to the neural network (NN) and calculating an output value, a learning parameter storage unit 12 for storing predetermined learning rules and learning parameters, A weight update unit 13 that compares the output of the network in the learning execution unit 11 with the teacher pattern of the input / output pattern holding unit 10 based on the learning rules and the learning parameters and updates the weight of the network. A connection weight storage unit 14 for storing network weights at any learning stage is provided.

【0069】学習実行部11をさらに詳細に説明する。
前記したようにニューラルネットワーク(NN)は多層
のネットワーク構造となっていて、各層は多くのユニッ
トから構成され、各ユニット間にはそれぞれ結合の重み
Wが定義される。
The learning execution section 11 will be described in more detail.
As described above, the neural network (NN) has a multilayer network structure. Each layer is composed of many units, and a connection weight W is defined between each unit.

【0070】各ユニットは以下に示すようにしてネット
ワークの出力値を計算する。あるユニットが複数のユニ
ットから入力を受けた場合、その重み付け総和に各ユニ
ットの閾値θを加えたものが入力値 netとなる(図3参
照)。
Each unit calculates the output value of the network as described below. When a certain unit receives inputs from a plurality of units, an input value net is obtained by adding the threshold value θ of each unit to the weighted sum (see FIG. 3).

【0071】net = Σwijj+θ wij:ユニットUjからユニットUiへの結合の重み Oj :ユニットUjの出力 ユニットの出力値はこの入力の総和net に、活性化関数
を適用して計算される。活性化関数には微分可能な非線
形関数であるシグモイド関数を使用する。すると、ユニ
ットUi の出力値Oi は Oi = 1/{1+exp(−neti)} となる。
Net = Σw ij O j + θ w ij : weight of connection from unit U j to unit U i O j : output of unit U j As for the output value of the unit, the activation function is applied to the sum net of this input. Is calculated. A sigmoid function, which is a differentiable nonlinear function, is used as the activation function. Then, the output value O i of the unit U i becomes O i = 1 / {1 + exp (-net i)}.

【0072】バックプロパゲーション法で用いるネット
ワークは、前記したような多層のネットワークである
が、ここでは図4のような入力層、隠れ層、出力層の3
層からなる場合について述べる。
The network used in the back propagation method is a multi-layer network as described above, but here, the three layers of the input layer, the hidden layer, and the output layer as shown in FIG.
The case of a layer will be described.

【0073】隠れ層の各ユニットは入力層のすべてのユ
ニットと結合している。出力層の各ユニットは入力層と
隠れ層の各ユニットとすべて結合している。そして各層
内でのユニット同士の結合はない。
Each unit in the hidden layer is associated with every unit in the input layer. Each unit of the output layer is connected to each unit of the input layer and the hidden layer. And there is no connection between units in each layer.

【0074】入力層の各ユニットにはネットワークへの
入力データが与えられる。従って、隠れ層の各ユニット
の出力値hは、 j = 1/{1+exp(−neti)} dK :k番目の入力ユニットの出力値 hj :j番目の隠れユニットの出力値 wjk:k番目の入力ユニットとj番目の隠れユニット間
の結合の重み θj :j番目の隠れユニットの閾値 となる。
Each unit in the input layer is provided with input data to the network. Therefore, the output value h of each unit in the hidden layer is h j = 1 / {1 + exp (−net i )} d K : output value of k-th input unit h j : output value of j-th hidden unit w jk : between k-th input unit and j-th hidden unit Weight j j : threshold value of the j-th hidden unit.

【0075】また、出力層の各ユニットの出力値oは、 j :j番目の隠れユニットの出力値 oi :i番目の出力ユニットの出力値 wij:j番目の隠れユニットとi番目の出力ユニット間
の結合の重み θi :i番目の出力ユニットの閾値 となる。
The output value o of each unit in the output layer is h j : output value of the j-th hidden unit o i : output value of the i-th output unit w ij : weight of the connection between the j-th hidden unit and the i-th output unit θ i : of the i-th output unit It becomes the threshold.

【0076】次に、重み更新部13を更に詳細に説明す
る。
Next, the weight updating unit 13 will be described in more detail.

【0077】この重み更新部13ではネットワークの出
力が望ましい出力となるようにネットワークの重みを変
える。あるパタンpを与えた時の実際の出力値(opi
と、望ましい出力値(tpi)の平均2乗誤差Epをと
る。
The weight updating unit 13 changes the weight of the network so that the output of the network becomes a desired output. Actual output value when a certain pattern p is given ( opi )
If, taking the mean square error E p of the desired output value (t pi).

【0078】Ep = (1/2)(tpi−opi2 学習させるためには、この誤差を減らすように、ネット
ワーク中の全ての重みを変える。
[0078] E p = (1/2) in order to (t pi -o pi) 2 is learning to reduce this error, change all weights in the network.

【0079】出力層についての学習規則は i) 隠れ層のユニット− 出力層の各ユニットの間
の重みの変化 ii) 入力層のユニット− 出力層のユニット間の重
みの変化 n:学習回数 α:モーメンタム δpi = (tpi−opi){opi(1−opi)} 隠れ層についての学習規則は 入力層のユニット − 隠れ層のユニットの間の重みの
変化 である。
The learning rules for the output layer are as follows: i) Change in weight between hidden layer unit and each unit in the output layer ii) Change in weight between unit in input layer and unit in output layer n: Number of learning α: Momentum δ pi = (t pi −o pi ) { opi (1− opi )} The learning rule for the hidden layer is a change in weight between the unit of the input layer and the unit of the hidden layer. It is.

【0080】次に結合の重み記憶部14はネットワーク
の重みを任意の学習段階で保存する。出力装置は、重み
記憶部14に保存してあるネットワークの重みをロード
し、入力パタンを与えると、ネットワークの出力を計算
する。以上のように学習したネットワークを用いると、
学習させた入力パタンについては正しい出力を返すが、
更に学習させていない入力パタンについても学習した入
出力パタンを基にしたような出力パタンを返す。 <実施例1>以上のニューラルネットワークで、文字フ
ォントを作成する場合の例を説明する。本実施例は、前
記した原型の図形群(入力パタン)に対する希望の装
飾等を施した変形図形群(希望出力パタン)を教師パタ
ンとしてそのまま学習する場合の一例である。ここで
は、パタン作成方式として前記方式2を使用し、制御パ
ラメータの入力を併用し、さらに、前記した学習の高速
化処理も行っている。、 (実施の手順)この実施例の手順を図15のフローチャ
ートで説明する。
Next, the connection weight storage unit 14 stores the weight of the network at an arbitrary learning stage. The output device loads the weight of the network stored in the weight storage unit 14 and, when an input pattern is given, calculates the output of the network. Using the network learned as described above,
Returns the correct output for the trained input pattern,
Further, an input pattern which has not been learned is returned as an output pattern based on the learned input / output pattern. <Embodiment 1> An example in which a character font is created by the above neural network will be described. The present embodiment is an example of a case in which a group of deformed figures (desired output patterns) in which a desired decoration or the like is applied to the group of primitive figures (input patterns) is directly learned as a teacher pattern. Here, the above-described method 2 is used as a pattern creation method, control parameter input is also used, and the above-described learning speed-up processing is also performed. (Procedure of Implementation) The procedure of this embodiment will be described with reference to the flowchart of FIG.

【0081】(a)まず、取得したい文字のセット(た
とえば教育漢字、JIS第一水準など)の、原型となる
フォントを一定の電子的な方法、ここでは文字を表す曲
線を複数の連続した直線からなる折れ線に近似させ、近
似した折れ線の各線分(セグメント)を座標画面の上の
ベクトル(起点の座標データ、線分の長さデータ、及
び、線分の向きを示す角度データ)で表現する。
(A) First, a set of characters to be obtained (for example, educational kanji, JIS first level, etc.) is converted to a prototype font by a certain electronic method. In this case, a curve representing a character is represented by a plurality of continuous straight lines. , And each line segment (segment) of the approximated broken line is represented by a vector (coordinate data of the starting point, length data of the line segment, and angle data indicating the direction of the line segment) on the coordinate screen. .

【0082】原型となるフォントは、文字の飾りを取り
払った、エッセンス的なものである。なお、既存のフォ
ント例えばゴシック体などを原型とすべきフォントとし
て使用してもい。このように表現された文字を、原型文
字群Aと呼ぶことにする。
The prototype font is an essence-like one with the decoration of characters removed. An existing font, for example, a Gothic font, may be used as a font to be used as a prototype. The character expressed in this manner is referred to as a prototype character group A.

【0083】(b)つぎに、変換したいスタイルを持っ
た文字のサンプルを用意する。その全集合こそが今求め
たい文字セットである。これをスタイル文字群Bと呼
ぶ。スタイル文字群のサンプルはB1,B2,..Bn
と表現し、これも、前記(a)と同じくベクトルデータ
として保持しておく。
(B) Next, a sample of a character having a style to be converted is prepared. That entire set is the character set we want to get right now. This is called a style character group B. Samples of style character groups are B1, B2,. . Bn
And this is also stored as vector data as in (a).

【0084】(c)ニューラルネットワークの入力に、
サンプルのB1・・・Bnに対応する原型文字群Aの内
の部分集合A1,A2,..Anを与える(ステップ1
01)。
(C) For input to the neural network,
The subsets A1, A2,... Of the prototype character group A corresponding to the samples B1. . Give An (Step 1
01).

【0085】(d)教師パタンには、B1,B2,..
Bnを与える(ステップ102)。ニューラルネットワ
ークの学習部は、これら入力データを元に、AからBへ
の変形規則を学習する(ステップ103)。学習が収束
しなくとも、学習を終了させることは可能である(ステ
ップ106) (e)学習が終了したら、学習していないAの集合の残
り全てを、学習済みのニューラルネットに次々に入力す
る(ステップ107)。すると、学習していないAの集
合の残り全てに対して前記変形規則に従った変形が加え
られ(ステップ108)、所望のすべてのスタイル文字
セットBが得られる(ステップ109)。
(D) The teacher patterns include B1, B2,. .
Bn is given (step 102). The learning section of the neural network learns the transformation rule from A to B based on the input data (step 103). Even if the learning does not converge, it is possible to end the learning (step 106). (E) After the learning is completed, all the remaining sets of the unlearned A are sequentially input to the trained neural net. (Step 107). Then, a deformation according to the above-described deformation rule is applied to all of the remaining sets of the unlearned set A (step 108), and all desired style character sets B are obtained (step 109).

【0086】このようにして、文字データを適当なデー
タ表現にして、ニューラルネットワークに学習させるこ
とで、個人の文字の特徴を反映させた文字を生成するこ
とができる。以上の手順に従い、以下のような学習条件
でシミュレーション実験を行った。ここでは、同一の原
型文字に対し、T氏とY氏がそれぞれ所望の手書き文字
を希望する変形文字として教師パタンとして入力した。
学習終了後、未学習の原型文字を入力し、ニューラルネ
ットワークの出力としてその原型文字に対する変形文字
を得た。そのシミュレーション結果を、図16から図2
3に示す。 教師パタン、入力パタンの作成方式 ここでは、前記したパタン作成方式2を使用し、図1
9,図20のように「国」、「田」、「固」、「亜」、
「弟」、「自」の漢字について入力パタンを作成した。
In this way, character data is converted into an appropriate data expression and learned by the neural network, whereby a character reflecting the characteristics of an individual character can be generated. According to the above procedure, a simulation experiment was performed under the following learning conditions. Here, for the same prototype character, Mr. T and Mr. Y input desired handwritten characters as desired modified characters as teacher patterns.
After the learning was completed, the unlearned prototype characters were input, and a modified character corresponding to the prototype characters was obtained as an output of the neural network. The simulation results are shown in FIGS.
3 is shown. Teacher Pattern and Input Pattern Creation Method In this example, the above-described pattern creation method 2 is used, and FIG.
9, “Country”, “field”, “solid”, “a”,
Input patterns were created for the kanji of "brother" and "self."

【0087】作成に当たっては、図10のように、ま
ず、原型となる文字を表す曲線を複数の連続した直線か
らなる折れ線に近似させる。そして、近似した折れ線の
内、第1の線分の起点座標(XI0、YI0)、第1の線分
の長さ(LI0)、第1の線分が前記起点座標を含む水平
線に対してなす角度(AI0)を得る。次いで、この第1
の線分に続く第2の線分についても、その起点座標(X
I1、YI1)、長さ(LI1)、角度(AI1)を得る。そし
て、第n番目の線分についても、その起点座標(XIn
In)、長さ(LIn)、角度(AIn)を求めておく。
In the creation, as shown in FIG. 10, first, a curve representing a character serving as a prototype is approximated to a polygonal line composed of a plurality of continuous straight lines. Then, of the approximated polygonal lines, the starting point coordinates (X I0 , Y I0 ) of the first line segment, the length of the first line segment (L I0 ), and the first line segment are converted into a horizontal line including the starting point coordinates. The angle (A I0 ) made with respect to this is obtained. Then, this first
The origin coordinates (X) of the second line segment following the line segment
I 1 , Y I1 ), length (L I1 ), and angle (A I1 ). Then, also for the n-th line segment, its starting point coordinates (X In ,
Y In ), length (L In ), and angle (A In ) are determined in advance.

【0088】次いで、図19,図20のように、T氏と
Y氏の2名に、「国」、「田」、「固」、「亜」、
「弟」、「自」の漢字を手書きで書いてもらい、希望の
変形文字とした。
Next, as shown in FIGS. 19 and 20, two persons, Mr. T and Mr. Y, are assigned “country”, “field”, “solid”, “a”,
I asked them to write the kanji of "brother" and "self" by hand, and made them the desired modified characters.

【0089】この変形文字についても、文字を構成する
一つのストロークからなる曲線を複数の連続した直線か
らなる折れ線に近似させ、ベクトルデータを得た。すな
わち、近似した折れ線の内、第1の線分の起点座標(X
O0、YO0)、第1の線分の長さ(LO0)、第1の線分が
前記起点座標を含む水平線に対してなす角度(AO0)を
得る。次いで、この第1の線分に続く第2の線分につい
ても、その起点座標(XO1、YO1)、長さ(LO1)、角
度(AO1)、第n番目の線分についても、その起点座標
(XOn、YOn)、長さ(LOn)、角度(AOn)を求めて
おく。 ニューラルネットワーク 使用したニューラルネットワークは図16のように4つ
の入力ノード、1つの制御パラメータ入力ノード、4つ
の出力ノードを有する。
For this deformed character, a curve consisting of one stroke constituting the character was approximated to a polygonal line consisting of a plurality of continuous straight lines, and vector data was obtained. In other words, the starting coordinates (X
O.sub.0 , Y.sub.O.sub.0 ), the length of the first line segment ( L.sub.O0 ), and the angle ( A.sub.O0 ) formed by the first line segment with respect to the horizontal line including the origin coordinates. Next, for the second line segment following the first line segment, the origin coordinates (X O1 , Y O1 ), length (L O1 ), angle (A O1 ), and n-th line segment , Its starting point coordinates (X On , Y On ), length (L On ), and angle (A On ) are obtained in advance. Neural Network The neural network used has four input nodes, one control parameter input node, and four output nodes as shown in FIG.

【0090】・構造 units =(5 5 4) ・学習係数 epsilon =(5 1) alpha =(0.8 0.3) ・学習許容誤差 allowance =0.01 ・最大学習回数 iteration =10000 ・ランダムシート random_seed=5 ・初期値 weight =random(0.5 -0.01 0.
01) threshold =random(0.5 -0.01 0.01) 学習 学習に際し、変換図形群そのものを教師パタンとした。
・ Structure units = (5 5 4) ・ Learning coefficient epsilon = (5 1) alpha = (0.8 0.3) ・ Learning tolerance allowance = 0.01 ・ Maximum number of learning iteration = 10000 ・ Random sheet random_seed = 5 ・ Initial value weight = random (0.5 -0.01 0.
01) threshold = random (0.5 -0.01 0.01) Learning During learning, the transformed figures themselves were used as teacher patterns.

【0091】この構成のニューラルネットワークに(X
I0、YI0、LI0、AI0)を入力パタンとし、(XO0、Y
O0、LO0、AO0)を教師パタンとして与え、続いて、
(XI1、YI1、LI1、AI1)を入力パタンとし、
(XO1、YO1、LO1、AO1)を教師パタンとして与え、
これを最後のn番目の線分の入力パタン(XIn、YIn
In、AIn)、及び出力パタン(教師パタン)(XOn
On、LOn、AOn)についてまで繰返し行い、一つのス
トローク情報についての学習を行う。
In the neural network having this configuration, (X
I0 , Y I0 , L I0 , A I0 ) as input patterns, and (X O0 , Y
O0 , L O0 , A O0 ) as a teacher pattern,
(X I1 , Y I1 , L I1 , A I1 ) as input patterns,
(X O1 , Y O1 , L O1 , A O1 ) are given as teacher patterns,
This is input to the input pattern (X In , Y In ,
L In , A In ) and the output pattern (teacher pattern) (X On ,
Y On , L On , and A On ) are repeated to learn about one stroke information.

【0092】このように、方式2では、入力と出力ベク
トルデータを4つのパラメータに絞り、ニューラルネッ
トワークの入力ノード及び出力ノードをそれぞれ4つに
して、ネットワークを簡素化し、1回当りの処理時間を
小さくしたが、目的とするストローク情報を得るために
ネットワークをn回(n:文字を折れ線近似で近似させ
た線分の数)何度か動作させる必要がある。
As described above, in the method 2, the input and output vector data are narrowed down to four parameters, and the input and output nodes of the neural network are each set to four, thereby simplifying the network and reducing the processing time per one time. Although the size is reduced, it is necessary to operate the network n times (n: the number of line segments obtained by approximating a character by polygonal line approximation) several times in order to obtain desired stroke information.

【0093】学習にあたっては、「国」、「田」、
「固」、「亜」、「弟」、「自」それぞれの文字につい
て、下の2つの変換を学習させた。 原型文字→原型文字(制御ハ゜ラメータ=0) 原型文字→変形文字(制御ハ゜ラメータ=1) ここで、原型文字→原型文字(制御ハ゜ラメータ=0)を学習す
る理由は前記したように学習の高速化のためである。
In learning, “country”, “field”,
The following two conversions were learned for each of the characters "Ku", "A", "Brother", and "Shi". Prototype character → Prototype character (Control parameter = 0) Prototype character → Deformation character (Control parameter = 1) Here, the reason for learning Prototype character → Prototype character (Control parameter = 0) is as described above. That's why.

【0094】なお、前記ニューラルネットワークにおい
て、学習は収束しなかったので最大学習回数の10000回
で打ち切った。このとき、T氏のネットワークの最大2
乗誤差 は、0.005320で、誤差平均は0.000419であっ
た。
In the above neural network, the learning did not converge, and was therefore terminated at the maximum number of times of learning of 10,000. At this time, up to 2 of Mr. T's network
The squared error was 0.005320 and the average error was 0.000419.

【0095】また、Y氏のネットワークの最大2乗誤差
は、0.007625、誤差平均は0.000623であった。なお、学
習に際し、一つのストローク情報の学習が終了したら、
次のストローク情報を学習するとき、そのストロークの
最初の基準位置となる起点座標として前回の第1の線分
のデータ(XO0、YO0、LO0、AO0)から、前記式
(1)(2)に従って第2の線分の起点座標を得るよう
にした。これにより、文字ストロークの起点が一致する
ので、得られる文字が不自然とならない(図30(b)
参照)。もし、前回の第1の線分の起点座標(XO0、Y
O0)を受け継がない場合、図30(c)のように、本来
交わるべき線分が交わらない結果となる場合がある。 フォントの生成 前記学習パタンの学習後、未学習の「回」、「中」、
「首」の3文字について入力し、学習した変形規則に基
づいて変形した後の文字を得た。結果を図21,図2
2,図23に示す。ただし、それぞれの文字について、
制御パラメータを0から1まで、0.2ごとに、6通り
変化させている。結果を図に示す。
The maximum square error of Mr. Y's network was 0.007625, and the average error was 0.000623. When learning one stroke information is completed,
When learning the next stroke information, from the data of the previous first line segment (X O0 , Y O0 , L O0 , A O0 ) as the starting point coordinates serving as the first reference position of the stroke, the above equation (1) is obtained. According to (2), the starting coordinates of the second line segment are obtained. As a result, since the starting points of the character strokes match, the resulting character does not become unnatural (FIG. 30B).
reference). If the origin coordinates of the previous first line segment (X O0 , Y
If O0 ) is not inherited, the result may be that the line segments that should originally intersect do not intersect, as shown in FIG. Font generation After learning the learning pattern, unlearned "times", "medium",
The three characters of "neck" were input, and the characters after deformation based on the learned deformation rules were obtained. The results are shown in FIG. 21 and FIG.
2, shown in FIG. However, for each character,
The control parameters are changed from 0 to 1 every 0.2 in six ways. The results are shown in the figure.

【0096】前記制御パラメータの値は、図中では、c_
para=??????で示している。T氏、Y氏の学習させた個
人文字により近い出力を得たい場合は、制御パラメータ
を1に近い値とし、原型文字により近い出力を得たい場
合は、0に近い値を入力すればよいことが図21,図2
2,図23からわかる。 <実施例2>以下の条件以外は実施例1と同一の条件で
文字フォントを自動的に生成した。 ニューラルネットワーク 以下のネットワークを使用してアルファベットを学習し
た。
The value of the control parameter is c_
para = ?????? To obtain an output closer to the personal characters trained by Mr. T and Y, set the control parameter to a value close to 1; to obtain an output closer to the prototype character, input a value close to 0. Fig. 21 and Fig. 2
2 and FIG. <Example 2> A character font was automatically generated under the same conditions as in Example 1 except for the following conditions. Neural Network The alphabet was learned using the following network.

【0097】・構造 units =(5 2 4) ・学習係数 epsilon =(5.00000 1.00000) alpha =(0.80000 0.30000) ・学習許容誤差 allowance =0.1 ・最大学習回数 iteration =5000 ・ランダムシート random_seed=5 ・重み weight =random(0.2 -0.1 0.
1) ・しきい値 threshold =random(0.2 -0.1 0.
1) random(a b c)は重みを割合aだけbからcまでの乱
数で設定するということを示す(それ以外は0にす
る)。 学習パタン 学習パタンとして、図24,図25のようにアルファベ
ット「A」、「T」、「H」、「M」の文字について、
下の2つの変換を学習させた。
・ Structure units = (5 2 4) ・ Learning coefficient epsilon = (5.00000 1.00000) alpha = (0.80000 0.30000) ・ Learning tolerance allowance = 0.1 ・ Maximum number of learning iteration = 5000 ・ Random sheet random_seed = 5 ・ Weight weight = random (0.2 -0.1 0.
1) ・ Threshold value threshold = random (0.2 -0.1 0.
1) random (abc) indicates that the weight is set by a random number from b to c by the ratio a (otherwise it is set to 0). Learning Patterns As learning patterns, as shown in FIGS. 24 and 25, letters of alphabets “A”, “T”, “H”, “M”
The following two transforms were trained.

【0098】原型文字→個人文字(変形文字)(制御ハ゜
ラメータ=1) 原型文字→原型文字(制御ハ゜ラメータ=0) フォントの作成 前記学習パタンの学習後、未学習の「K」、「E」、
「I」、「L」の4文字について入力し、図26,図2
7,図28,図29のように、学習した変形規則に基づ
いて変形した後の文字を得た。ただし、それぞれの文字
について、制御パラメータを0から1まで、0.2ごと
に、6通り変化させている。制御パラメータを変化させ
ることで、前記したように入力パタンと教師パタンとの
中間に位置する変形文字が得られる。 <実施例3>以下の条件以外は実施例1と同一の条件で
文字フォントを自動的に生成した。 学習パタンの作成方式 前記した学習パタン作成方式1を使用した。図7のよう
に、まず、原型となる文字を表す曲線を複数の連続した
直線からなる折れ線に近似させる。そして、近似した折
れ線の内、第1の線分の起点座標(XI0、YI0)、第1
の線分の長さ(LI0)、第1の線分が前記起点座標を含
む水平線に対してなす角度(AI0)を得る。次いで、こ
の第1の線分に続く第2の線分についても、、長さ(L
I1)、第2の線分がその起点を含む水平線に対してなす
角度(AI1)を求める。これを第n番目の線分について
まで続け、長さ(LIn)、角度(AIn)を求めておく。
Prototype character → personal character (deformed character) (control parameter = 1) Prototype character → prototype character (control parameter = 0) Creation of font After learning the learning pattern, unlearned “K”, “E”,
Input the four characters “I” and “L”, and
As shown in FIG. 7, FIG. 28, and FIG. 29, characters after deformation based on the learned deformation rules were obtained. However, for each character, the control parameter is changed from 0 to 1 in six increments of 0.2. By changing the control parameters, a deformed character located between the input pattern and the teacher pattern can be obtained as described above. Example 3 A character font was automatically generated under the same conditions as in Example 1 except for the following conditions. Learning Pattern Creation Method The above-described learning pattern creation method 1 was used. First, as shown in FIG. 7, a curve representing a character serving as a prototype is approximated to a polygonal line composed of a plurality of continuous straight lines. Then, of the approximated polygonal lines, the starting point coordinates (X I0 , Y I0 ) of the first line segment and the first
Of the line segment (L I0 ), and the angle (A I0 ) formed by the first line segment with respect to the horizontal line including the origin coordinates. Next, also for the second line segment following the first line segment, the length (L
I1 ), the angle (A I1 ) formed by the second line segment with respect to the horizontal line including the starting point is obtained. This is continued for the n-th line segment, and the length (L In ) and angle (A In ) are determined.

【0099】これと同様に希望する変形文字について
も、文字を構成する一つのストロークからなる曲線を複
数の連続した直線からなる折れ線に近似させ、そして、
近似した折れ線の内、第1の線分の起点座標(XO0、Y
O0)、第1の線分の長さ(LO0)、第1の線分が前記起
点座標を含む水平線に対してなす角度(AO0)を得る。
次いで、この第1の線分に続く第2の線分についても、
長さ(LO1)、角度(A O1)を求め、第n番目の線分に
ついても、長さ(LOn)、角度(AOn)を求めておく。
Similarly, for the desired deformed character
Also composes a curve consisting of one stroke that constitutes a character.
Approximate a polyline consisting of a series of straight lines, and
Of the approximated polygonal lines, the starting point coordinates (XO0, Y
O0), The length of the first line segment (LO0), The first line segment is
Angle (A) to the horizontal line containing the point coordinatesO0Get)
Next, a second segment following the first segment is also
Length (LO1), Angle (A O1) And calculate the nth line segment
The length (LOn), Angle (AOn).

【0100】そして、(XI0、YI0、LI0、AI0
I1、AI1、・・・・LIn、AIn)を入力パタンとし、
(XO0、YO0、LO0、AO0、LO1、AO1、・・・・
On、AOn)を出力パタン(教師パタン)として与え、
文字のストローク情報を学習する。
Then, (X I0 , Y I0 , L I0 , A I0 ,
L I1 , A I1 ,... L In , A In ) are input patterns,
(X O0 , Y O0 , L O0 , A O0 , L O1 , A O1 ,...
L On , A On ) as output patterns (teacher patterns),
Learn character stroke information.

【0101】方式1では、入力と出力の全てのベクトル
データをニューラルネットワークの入力と出力に対応さ
せているため、1回の処理で目的とするストローク情報
が得られる。
In the method 1, since all the input and output vector data are made to correspond to the input and output of the neural network, the target stroke information can be obtained by one process.

【0102】従って、図8のように、ニューラルネット
ワークの入力ノード及び出力ノードの数は、それぞれ2
n+2となる。実施例1と同じようにして、「国」、
「田」、「固」、「亜」、「弟」、「自」ついて、下の
2つの変換を学習させた。
Therefore, as shown in FIG. 8, the number of input nodes and output nodes of the neural network is 2
n + 2. "Country",
The following two transformations were learned for "field", "solid", "a", "brother", and "self".

【0103】原型文字→個人文字(制御ハ゜ラメータ=1) 原型文字→原型文字(制御ハ゜ラメータ=0) そして、前記学習パタンの学習後、未学習の「回」につ
いて入力し、学習した変形規則に基づいて変形した後の
文字を得た。得られた文字を図30(a)に示す。 <実施例4>この実施例は、原型の図形群(入力パタ
ン)と希望の装飾等を施した変形図形群(希望出力パタ
ン)との間の差分を教師パタンとして学習する場合の一
例である。
Prototype character → personal character (control parameter = 1) Prototype character → prototype character (control parameter = 0) Then, after learning of the learning pattern, an unlearned “times” is input and based on the learned deformation rule. I got the character after it was deformed. The characters obtained are shown in FIG. <Embodiment 4> This embodiment is an example of learning a difference between a group of prototype figures (input patterns) and a group of deformed figures (desired output patterns) on which a desired decoration or the like has been applied as a teacher pattern. .

【0104】この実施例では、図31,図32で示した
ように、教師パタンTとして、 T={(B−A)/2}+C ・・・(4) B:変形図形(教師パタン) A:原型図形(入力パタン) C:(シグモイド関数の上限−下限)/2 を使用した場合である。
In this embodiment, as shown in FIGS. 31 and 32, as the teacher pattern T, T = {(BA) / 2} + C (4) B: deformed figure (teacher pattern) A: prototype figure (input pattern) C: (upper limit-lower limit of sigmoid function) / 2

【0105】この場合のニューラルネットワークの構成
図を図33に示す。このニューラルネットワークは後処
理部50を有するとともに、入力からニューラルネット
ワークをバイパスして入力ベクトルデータを後処理部へ
と送るバイパス路51を有する。
FIG. 33 shows the configuration of the neural network in this case. The neural network has a post-processing unit 50 and a bypass 51 that bypasses the neural network from the input and sends input vector data to the post-processing unit.

【0106】この後処理部50での処理を図33(b)
(c)(d)により説明する。まず、変換式 T=(O
−I)/R+C を考える。 T:ニューラルネットワークの出力 O:本来の希望出力 I:ニューラルネットワークの入力 R:変換レート C:定数(const.) ここでOを求めるためには、 T=O/R−I/R+C O/R=T+I/R−C O=I+(T−C)×R としなければならない。
The processing in the post-processing unit 50 is shown in FIG.
This will be described with reference to (c) and (d). First, the conversion equation T = (O
-I) / R + C. T: Output of the neural network O: Original desired output I: Input of the neural network R: Conversion rate C: Constant (const.) In order to obtain O, T = O / RI-I / R + CO / R = T + I / R-CO = I + (TC) * R.

【0107】従って、図33(a)の各ノードの各入出
力関係は図33(b)のようになる。図33(b)にお
いて、R=1のとき最も単純な図33(c)の形とな
り、よく使われるR=2のとき、図33(d)のように
なる。
Accordingly, each input / output relationship of each node in FIG. 33 (a) is as shown in FIG. 33 (b). In FIG. 33 (b), when R = 1, the shape becomes the simplest one shown in FIG. 33 (c), and when R = 2, which is often used, the shape becomes as shown in FIG. 33 (d).

【0108】本実施例で使用した教師パタンの例を図3
4に示す。学習後、未学習の「首」の文字について入力
したところ、図35のような出力が得られた。教師パタ
ンをそのまま教師パタンとした場合の図18と対比され
る。 <実施例5>この実施例は、本発明を利用して文字認識
システムを構成した場合の実施例である。
FIG. 3 shows an example of the teacher pattern used in this embodiment.
It is shown in FIG. After the learning, when an input was made for the unlearned “neck” character, an output as shown in FIG. 35 was obtained. This is compared with FIG. 18 in which the teacher pattern is used as it is. <Embodiment 5> This embodiment is an embodiment in the case where a character recognition system is constructed by utilizing the present invention.

【0109】光学式文字読取り装置(OCR)が最近文
字入力装置として利用されているが、必ずしも良好な認
識率を有しない。従来の文字認識システムは、既存の文
字フォントを内蔵し、その文字フォントと同一あるいは
近似の文字であれば、読み取った文字を認識できるが、
個人文字などでは認識できない場合が多い。
Although an optical character reader (OCR) has recently been used as a character input device, it does not always have a good recognition rate. Conventional character recognition systems incorporate existing character fonts and can recognize read characters if they are the same or similar to the character font.
In many cases, personal characters cannot be recognized.

【0110】そこで、上記した本発明の方式で、個人文
字等認識不可能な文字群を認識可能な文字フォントとし
てシステムに取り入れるようにすれば、それ以後個人文
字などを認識できるようになる。
Therefore, if a group of characters that cannot be recognized, such as personal characters, is incorporated into the system as a recognizable character font by the above-described method of the present invention, personal characters and the like can be recognized thereafter.

【0111】その構成としては、図41に示したよう
に、イメージスキャナ61と、このイメージスキャナ6
1で入力した文字を認識する文字認識システム63と、
この文字認識システムによる文字認識が不可能であると
されたとき、イメージスキャナから入力された認識対象
の文字を教師パタンとし、認識可能な既存の文字フォン
トを入力パタンとして、認識可能な文字フォント群を作
成するニューラルネットワークNWとを備えている。
As shown in FIG. 41, the image scanner 61 and the image scanner 6 have the same configuration.
A character recognition system 63 for recognizing the character input in 1;
If it is determined that character recognition by this character recognition system is not possible, a character to be recognized input from the image scanner is used as a teacher pattern, a recognizable existing character font is used as an input pattern, and a recognizable character font group And a neural network NW for generating

【0112】ここで、前記文字認識システムは、文字認
識の為のリファレンスとする基準文字フォント群を格納
する文字フォント格納部65と、イメージスキャナで入
力した文字データを文字フォント格納部65の基準文字
フォントと比較して文字を認識する認識部67とを有す
る。
Here, the character recognition system includes a character font storage unit 65 for storing a reference character font group used as a reference for character recognition, and character data input by an image scanner. A recognition unit 67 for recognizing characters in comparison with fonts.

【0113】前記ニューラルネットワークは、上記した
構成を利用したものである。すなわち、原型図形の集合
Aから変形図形の集合Bに未知の変換規則があると考え
られるとき、原型図形の集合Aの部分集合A0 に対し、
個々の要素について1対1の対応関係がある変形図形の
集合B0 を選びだし、集合Aの部分集合A0 を入力パタ
ンとし、集合B0 を教師パタンとして、ニューラルネッ
トワークに学習させ、A0 の母集合AからB0 の母集合
Bへの未知の変換規則を推定させ、推定した変換規則を
用いて、変形図形の集合Bを得るものである。
The neural network uses the above-described configuration. That is, when it is considered that there is an unknown conversion rule from the set A of the prototype figures to the set B of the deformed figures, the subset A 0 of the set A of the prototype figures is
We picked a set B 0 corresponding relationship deformation shape of one-to-one for each element, an input pattern subset A 0 of the set A, the set B 0 as a teacher pattern, is trained in the neural network, A 0 The unknown conversion rule from the mother set A to the mother set B of B 0 is estimated, and a set B of deformed figures is obtained using the estimated conversion rule.

【0114】そして、前記文字認識システムによる認識
が不可能な文字群が入力されたとき、これを前記集合B
0 である教師パタンとし、この教師パタン毎に対応し
て、前記認識システムで認識可能な文字フォントを前記
部分集合A0 からなる入力パタンとしてニューラルネッ
トワークに与え、前記A0 からB0 への未知の変形規則
を推定させ、最終的に認識可能な原型文字の集合Aに対
応する文字フォント群Bを得る。
When a character group that cannot be recognized by the character recognition system is input,
And 0 a is the teacher pattern, in response to the teacher pattern each, given to the neural network a recognizable character font by the recognition system as an input pattern consisting of the subset A 0, unknown from the A 0 to B 0 Is estimated, and a character font group B corresponding to the set A of the recognizable prototype characters is finally obtained.

【0115】その手順は、先の各実施例で具体的に述べ
た通りである。最終的に得た文字フォント群は、認識可
能な新たな文字フォント群として文字認識システムの文
字フォント格納部65に格納する。
The procedure is as specifically described in the above embodiments. The finally obtained character font group is stored in the character font storage unit 65 of the character recognition system as a new recognizable character font group.

【0116】なお、文字認識システム自体もニューラル
ネットワークで構成することまお可能である。このよう
な構成の文字認識システムとすることで、認識率を大幅
に向上させることができる。
The character recognition system itself can be constituted by a neural network. With the character recognition system having such a configuration, the recognition rate can be significantly improved.

【0117】[0117]

【発明の効果】本発明によれば、原型図形の集合Aの部
分集合A0 に対し、個々の要素について1対1の対応関
係がある図形の集合B0 をニューラルネットワークへ提
供するだけで、原型図形の集合Aの個々の要素について
1対1の対応関係がある変形図形の集合B全体を容易に
得ることができる。
According to the present invention, with respect to the subset A 0 of the set A prototype figure, only provide a set B 0 corresponding relationship figure of one to one for each element to the neural network, The entire set B of deformed figures having a one-to-one correspondence with each element of the set A of prototype figures can be easily obtained.

【0118】従って、文字フォントなどを容易かつ安価
に取得でき、個性ある文字フォントやタイプフェイスを
個人レベルで使用できる。
Therefore, character fonts and the like can be obtained easily and inexpensively, and individual character fonts and typefaces can be used on an individual level.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理図FIG. 1 is a principle diagram of the present invention.

【図2】ニューラルネットワークの一例を示したブロッ
ク図
FIG. 2 is a block diagram showing an example of a neural network.

【図3】ネットワークの入出力特性を示す図FIG. 3 is a diagram showing input / output characteristics of a network;

【図4】ネットワークの構造を示す図FIG. 4 is a diagram showing a network structure;

【図5】シグモイド関数を示すグラフ図FIG. 5 is a graph showing a sigmoid function.

【図6】入力パタン、教師パタンの作成方式1を示す図FIG. 6 is a diagram showing a method 1 for creating an input pattern and a teacher pattern.

【図7】入力パタン、教師パタンの作成方式1を示す図FIG. 7 is a diagram showing a method 1 for creating an input pattern and a teacher pattern.

【図8】パタン作成方式1に対応するニューラルネット
ワークの構成図
FIG. 8 is a configuration diagram of a neural network corresponding to the pattern creation method 1.

【図9】入力パタン、教師パタンの作成方式2を示す図FIG. 9 is a diagram showing a method 2 for creating an input pattern and a teacher pattern.

【図10】入力パタン、教師パタンの作成方式2を示す
FIG. 10 is a diagram showing a method 2 for creating an input pattern and a teacher pattern.

【図11】パタン作成方式2に対応するニューラルネッ
トワークの構成図
FIG. 11 is a configuration diagram of a neural network corresponding to the pattern creation method 2.

【図12】パタン作成方式2における次のストロークの
始点を求める方法を示す図
FIG. 12 is a diagram showing a method for obtaining the starting point of the next stroke in pattern creation method 2;

【図13】パタン作成方式1,2の対比図FIG. 13 is a comparison diagram of pattern creation methods 1 and 2;

【図14】希望出力パタンをそのまま教師パタンとする
場合の構成図
FIG. 14 is a configuration diagram when a desired output pattern is used as a teacher pattern as it is.

【図15】本発明による文字フォント作成のフローチャ
ート図
FIG. 15 is a flowchart of character font creation according to the present invention.

【図16】実施例1のニューラルネットワークの構成図FIG. 16 is a configuration diagram of a neural network according to the first embodiment.

【図17】希望出力パタンをそのまま教師パタンとする
場合の学習パタン
FIG. 17 is a learning pattern when a desired output pattern is used as it is as a teacher pattern.

【図18】実施例1の場合の首の出力結果FIG. 18 is an output result of the neck in the case of the first embodiment.

【図19】実施例1における学習パタン1を示し、図1
9(a)は原型文字、図19(b)は教師パタンである
個人文字(T氏)、図19(c)は教師パタンである個
人文字(Y氏)
FIG. 19 shows a learning pattern 1 according to the first embodiment,
9 (a) is a prototype character, FIG. 19 (b) is a personal character (Mr. T) as a teacher pattern, and FIG. 19 (c) is a personal character (Mr. Y) as a teacher pattern.

【図20】実施例1における学習パタン2を示し、図1
9(a)は原型文字、図19(b)は教師パタンである
個人文字(T氏)、図19(c)は教師パタンである個
人文字(Y氏)
20 shows a learning pattern 2 according to the first embodiment, and FIG.
9 (a) is a prototype character, FIG. 19 (b) is a personal character (Mr. T) as a teacher pattern, and FIG. 19 (c) is a personal character (Mr. Y) as a teacher pattern.

【図21】実施例1の未学習パタンの実行結果1FIG. 21 is an execution result 1 of an unlearned pattern according to the first embodiment.

【図22】実施例1の未学習パタンの実行結果2FIG. 22 shows an execution result 2 of an unlearned pattern according to the first embodiment.

【図23】実施例1の未学習パタンの実行結果3FIG. 23 shows an execution result 3 of an unlearned pattern according to the first embodiment.

【図24】実施例2における入力パタンと教師パタン1FIG. 24 shows an input pattern and a teacher pattern 1 according to the second embodiment.

【図25】実施例2における入力パタンと教師パタン2FIG. 25 shows an input pattern and a teacher pattern 2 in the second embodiment.

【図26】実施例2の未学習パタンの実行結果1FIG. 26 is an execution result 1 of an unlearned pattern according to the second embodiment.

【図27】実施例2の未学習パタンの実行結果2FIG. 27 is an execution result 2 of an unlearned pattern according to the second embodiment.

【図28】実施例2の未学習パタンの実行結果3FIG. 28 shows an execution result 3 of an unlearned pattern according to the second embodiment.

【図29】実施例2の未学習パタンの実行結果4FIG. 29 is an execution result 4 of an unlearned pattern according to the second embodiment.

【図30】入力パタン、教師パタンの作成方式1,2に
よる結果の比較図
FIG. 30 is a comparison diagram of the results obtained by the input pattern and teacher pattern creation methods 1 and 2;

【図31】入力パタンと希望出力パタンの差分を教師パ
タンとするニューラルネットワークの原理図
FIG. 31 is a principle diagram of a neural network using a difference between an input pattern and a desired output pattern as a teacher pattern.

【図32】人篇についての入力パタンと希望出力パタン
の差分データを示す図
FIG. 32 is a diagram showing difference data between an input pattern and a desired output pattern for a human version;

【図33】実施例4において差分を教師パタンとするニ
ューラルネットワークの具体的構成図
FIG. 33 is a specific configuration diagram of a neural network in which a difference is used as a teacher pattern in the fourth embodiment.

【図34】入力パタンと希望出力パタンの差分から構成
される教師パタンの例
FIG. 34 shows an example of a teacher pattern composed of a difference between an input pattern and a desired output pattern.

【図35】入力パタンと希望出力パタンの差分を教師パ
タンとした場合の実行例
FIG. 35 is an execution example when a difference between an input pattern and a desired output pattern is used as a teacher pattern;

【図36】ネットワークの重み空間を示す図FIG. 36 is a diagram showing a weight space of a network;

【図37】同一パタンを教師パタンとしない場合(a)
と、した場合(b)との学習過程の比較図
FIG. 37: When the same pattern is not used as a teacher pattern (a)
Comparison of the learning process with (b)

【図38】同一パタンを教師パタンとしない場合(a)
と、した場合(b)との学習時間の比較図
FIG. 38: When the same pattern is not used as a teacher pattern (a)
Comparison of learning time between (b) and (b)

【図39】同じ入力パタンに対して複数の教師パタンが
存在する場合の処理を示す概念図
FIG. 39 is a conceptual diagram showing processing when a plurality of teacher patterns exist for the same input pattern.

【図40】同じ入力パタンに対して複数の教師パタンが
存在する場合の具体例
FIG. 40 is a specific example in the case where a plurality of teacher patterns exist for the same input pattern.

【図41】本発明の図形作成システムを利用した文字認
識システム
FIG. 41 is a character recognition system using the graphic creation system of the present invention.

【符号の説明】[Explanation of symbols]

10・・・入出力パタン保持部 11・・・学習実行部 12・・・学習パラメータ保持部 13・・・重み更新部 14・・・重み記憶部 50・・・後処理部 51・・・バイパス路 61・・・イメージスキャナ 63・・・文字認識システム 65・・・文字フォント格納部 67・・・認識部 NW・・・ニューラルネットワーク DESCRIPTION OF SYMBOLS 10 ... Input / output pattern holding part 11 ... Learning execution part 12 ... Learning parameter holding part 13 ... Weight updating part 14 ... Weight storage part 50 ... Post-processing part 51 ... Bypass Road 61: Image scanner 63: Character recognition system 65: Character font storage 67: Recognition unit NW: Neural network

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI G09G 5/24 G09G 5/24 (56)参考文献 特開 平3−189876(JP,A) 特開 平3−273761(JP,A) 特開 平4−109299(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06G 7/60 G06F 15/18 G06K 9/66 G06K 9/68 G06T 1/00 G09G 5/24 ──────────────────────────────────────────────────続 き Continuation of the front page (51) Int.Cl. 7 Identification code FI G09G 5/24 G09G 5/24 (56) References JP-A-3-189876 (JP, A) JP-A-3-273761 (JP (A) JP-A-4-109299 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G06G 7/60 G06F 15/18 G06K 9/66 G06K 9/68 G06T 1/00 G09G 5/24

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】文字フォントの原型図形の集合Aから文字
フォントの変形図形の集合Bに未知の変換規則があると
考えられるとき、原型図形の集合Aの部分集合A0 に対
し、個々の要素について1対1の対応関係がある変形図
形の集合B0 を選びだし、集合Aの部分集合A0 を入力
パタンとし、集合B0 を教師パタンとして、ニューラル
ネットワークに学習させ、部分集合A 0 の母集合Aから
集合B 0 の母集合Bへの未知の変換規則を推定させ、推
定した変換規則を用いて、変形図形の集合Bを得ること
を特徴とするニューラルネットワークによる図形変換方
式。
1. A character from a set A of a prototype of a character font
When it is considered that there is an unknown conversion rule in the set B of the deformed figures of the font, the set B 0 of the deformed figures having a one-to-one correspondence with each element with respect to the subset A 0 of the set A of the prototype figures. Is selected, and the neural network is trained using the subset A 0 of the set A as an input pattern and the set B 0 as a teacher pattern, and from the mother set A of the subset A 0
To estimate an unknown conversion rule from mother to set B of the set B 0, using the conversion rule the estimated geometric transformation method using a neural network, characterized in that to obtain a set B of deformation shape.
【請求項2】希望の前記変形図形群をそのまま教師パタ
ンとして学習することを特徴とする請求項1記載のニュ
ーラルネットワークによる図形変換方式。
2. A graphic conversion method using a neural network according to claim 1 , wherein said desired deformed graphic group is learned as a teacher pattern as it is.
【請求項3】希望の前記変形図形と入力パタンである原
型図形との間の差分情報を教師パタンとして学習するこ
とを特徴とする請求項1記載のニューラルネットワーク
による図形変換方式。
3. The graphic conversion method according to claim 1, wherein difference information between the desired deformed graphic and a prototype graphic as an input pattern is learned as a teacher pattern.
【請求項4】ニューラルネットワークに、前記入力パタ
ンを入力するとともに、出力パタンを変化させるための
制御パラメータを入力することを特徴とする請求項1記
載のニューラルネットワークによる図形変換方式。
4. The graphic conversion system according to claim 1, wherein the input pattern is input to the neural network and a control parameter for changing the output pattern is input.
【請求項5】 原型図形の集合Aから変形図形の集合B
に未知の変換規則があると考えられるとき、原型図形の
集合Aの部分集合A0 に対し、個々の要素について1対
1の対応関係がある変形図形の集合B0 を選びだし、集
合Aの部分集合A0 を入力パタンとし、集合B0 を教師
パタンとして、ニューラルネットワークに学習させるに
際し、 予め、原型図形の集合Aの部分集合A0 からなる入力パ
タンと、制御パラメータと、前記入力パタンと同一であ
る部分集合A0 からなる教師パタンとをニューラルネッ
トワークに与えて学習させ、 この学習による重みを初期値として、集合Aの部分集合
0 を入力パタンとし、集合B0 を教師パタンとして、
ニューラルネットワークに学習させることを特徴とする
請求項4記載のニューラルネットワークによる図形変換
方式。
5. A set A of a prototype figure and a set B of a deformed figure
Is considered to have an unknown conversion rule, a set B 0 of deformed figures having a one-to-one correspondence with each element is selected for the subset A 0 of the set A of the prototype figure. When the neural network is trained using the subset A 0 as an input pattern and the set B 0 as a teacher pattern, an input pattern consisting of a subset A 0 of a set A of prototype figures, a control parameter, and the input pattern A training pattern consisting of the same subset A 0 is given to a neural network for learning. The weights obtained by this learning are used as initial values, the subset A 0 of the set A is used as an input pattern, and the set B 0 is used as a teacher pattern.
The figure conversion method using a neural network according to claim 4, wherein the neural network is made to learn.
【請求項6】 n個の連続した線分情報として与えられ
た文字などの図形のストロークに関するベクトルデータ
を、連続した線分の集合である一つのストローク毎に処
理の最小単位であるセグメントとしてとらえ、ニューラ
ルネットワークの入力パタンと教師パタンに対応させ
て、学習させることにより、文字のストロークを変換す
ることを特徴とする請求項1記載のニューラルネットワ
ークによる図形変換方式。
6. Vector data relating to a stroke of a graphic such as a character given as n continuous line segment information is regarded as a segment which is a minimum unit of processing for each stroke which is a set of continuous line segments. 2. The graphic conversion method according to claim 1, wherein a stroke of a character is converted by learning in correspondence with an input pattern and a teacher pattern of the neural network.
【請求項7】 n個の連続した線分情報として与えられ
た文字などの図形のストロークに関するベクトルデータ
を、ストロークを構成する各線分毎に処理の最小単位で
あるセグメントとしてとらえてn個線分を表すパタンデ
ータの系列と見なして、各線分のベクトルデータ毎それ
ぞれニューラルネットワークに学習させることで、n個
のストロークの集合である全体の文字ストロークを変換
することを特徴とする請求項1記載のニューラルネット
ワークによる図形変換方式。
7. Vector data relating to a stroke of a graphic such as a character given as n continuous line segment information is regarded as a segment which is a minimum unit of processing for each line segment constituting the stroke, and n line segments are processed. The entire character stroke, which is a set of n strokes, is converted by assuming a series of pattern data representing the set of n and learning the neural network for each vector data of each line segment. Figure conversion method using neural network.
【請求項8】複数の入力図形パタン同士で図形パタンの
一部が共通する場合、その共通部を有する入力図形パタ
ン群の内、1つの図形パタンのみをパタンとして選択
し、前記ニューラルネットワークに学習させることを特
徴とする請求項1記載のニューラルネットワークによる
図形変換方式。
8. When a part of a graphic pattern is common to a plurality of input graphic patterns, only one graphic pattern is selected as a pattern from an input graphic pattern group having the common part, and learning is performed on the neural network. 2. A graphic conversion method using a neural network according to claim 1, wherein:
【請求項9】 前記入力図形パタン同士を重ねて比較
し、一方の図形パタンに対する他方の図形パタンの距離
を算出し、距離が一定値以下の図形パタンを一つのグル
ープとし、そのグループ中の1つを選択することを特徴
とする請求項8記載のニューラルネットワークによる図
形変換方式。
9. The input graphic patterns are superimposed and compared with each other, a distance between one graphic pattern and another graphic pattern is calculated, and a graphic pattern whose distance is equal to or less than a certain value is set as one group, and one of the groups in the group is determined. 9. The graphic conversion method using a neural network according to claim 8, wherein one is selected.
【請求項10】 イメージスキャナと、このイメージス
キャナで入力した文字を認識する文字認識システムと、
この文字認識システムによる文字認識が不可能であると
されたとき、イメージスキャナから入力された認識対象
の文字を教師パタンとし、認識可能な既存の文字フォン
トを入力パタンとして、認識可能な文字フォント群を作
成するニューラルネットワークとを備え、 前記ニューラルネットワークは、原型図形の集合Aから
変形図形の集合Bに未知の変換規則があると考えられる
とき、原型図形の集合Aの部分集合A0 に対し、個々の
要素について1対1の対応関係がある変形図形の集合B
0 を選びだし、集合Aの部分集合A0 を入力パタンと
し、集合B0 を教師パタンとして、ニューラルネットワ
ークに学習させ、A0 の母集合AからB0 の母集合Bへ
の未知の変換規則を推定させ、推定した変換規則を用い
て、変形図形の集合Bを得るものであり、 前記文字認識システムによる認識が不可能な文字群が入
力されたとき、これを前記集合B0 である教師パタンと
し、この教師パタン毎に対応して、前記認識システムで
認識可能な文字フォントを前記部分集合A0 からなる入
力パタンとしてニューラルネットワークに与え、前記A
0 からB0 への未知の変形規則を推定させ、最終的に認
識可能な原型文字の集合Aに対応する文字フォント群B
を得て、認識可能な新たな文字フォント群とすることを
特徴とする文字認識システム。
10. An image scanner, a character recognition system for recognizing characters input by the image scanner,
If it is determined that character recognition by this character recognition system is not possible, a character to be recognized input from the image scanner is used as a teacher pattern, a recognizable existing character font is used as an input pattern, and a group of recognizable character fonts is used. And a neural network that creates an A. The neural network, when it is considered that there is an unknown conversion rule from the set A of the prototype figures to the set B of the deformed figures, for a subset A 0 of the set A of the prototype figures, A set B of deformed figures having a one-to-one correspondence with each element
0 picked, an input pattern subset A 0 of the set A, the set B 0 as a teacher pattern, is trained in the neural network, an unknown conversion rule from the mother set A of A 0 to mother set B of B 0 was estimated, using the conversion rule estimated, which obtain a set B of deformation figure, when the character recognition system according to impossible to recognize a character group is input, it is the set B 0 this teacher and pattern, in response to the teacher pattern each, given to the neural network a recognizable character font by the recognition system as an input pattern consisting of the subset a 0, the a
A character font group B corresponding to a set A of prototype characters that can be finally recognized by estimating an unknown transformation rule from 0 to B 0
And a new character font group that can be recognized.
JP06378492A 1992-03-19 1992-03-19 Figure conversion method using neural network Expired - Fee Related JP3162154B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP06378492A JP3162154B2 (en) 1992-03-19 1992-03-19 Figure conversion method using neural network
KR93004319A KR0131754B1 (en) 1992-03-19 1993-03-19 Neuro processing service system
US08/351,557 US5708727A (en) 1992-03-19 1994-12-07 Neuroprocessing service
US08/451,772 US5999922A (en) 1992-03-19 1995-05-26 Neuroprocessing service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06378492A JP3162154B2 (en) 1992-03-19 1992-03-19 Figure conversion method using neural network

Publications (2)

Publication Number Publication Date
JPH05266226A JPH05266226A (en) 1993-10-15
JP3162154B2 true JP3162154B2 (en) 2001-04-25

Family

ID=13239353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06378492A Expired - Fee Related JP3162154B2 (en) 1992-03-19 1992-03-19 Figure conversion method using neural network

Country Status (1)

Country Link
JP (1) JP3162154B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110914834B (en) * 2017-08-01 2024-04-16 3M创新有限公司 Neurostyle migration for image modification and recognition
JP2021026191A (en) * 2019-08-08 2021-02-22 ブラザー工業株式会社 Learned machine learning model, image data generation apparatus, and method

Also Published As

Publication number Publication date
JPH05266226A (en) 1993-10-15

Similar Documents

Publication Publication Date Title
Hossain et al. Recognition of handwritten digit using convolutional neural network (CNN)
US5748769A (en) Pattern recognition apparatus
US5832108A (en) Pattern recognition method using a network and system therefor
CN111553350A (en) Attention mechanism text recognition method based on deep learning
CN111666937A (en) Method and system for recognizing text in image
CN112784531A (en) Chinese font and word stock generation method based on deep learning and part splicing
US5999922A (en) Neuroprocessing service
Chandio et al. Multi-font and multi-size printed Sindhi character recognition using Convolutional Neural Networks
JP3162154B2 (en) Figure conversion method using neural network
JPH05266227A (en) Neuroprocessing use service
Sharif et al. Urdu handwritten ligature generation using generative adversarial networks (GANs)
CN110909161B (en) English word classification method based on density clustering and visual similarity
CN115359486A (en) Method and system for determining custom information in document image
CN114387431A (en) Multi-line character paper form OCR method based on semantic analysis
Perwej et al. The State-of-the-Art Handwritten Recognition of Arabic Script Using Simplified Fuzzy ARTMAP and Hidden Markov Models
Kumar et al. Recognizing Ancient South Indian Language Using Opposition Based Grey Wolf Optimization.
Liu et al. Advances in chinese document and text processing
Malaviya et al. A fuzzy online handwriting recognition system: FOHRES
Patil et al. Isolated handwritten Devnagri numeral recognition using HMM
JPH0546147A (en) Deformed font generation system
CN116975344B (en) Chinese character library generation method and device based on Stable diffration
Kalingeri et al. Synthesis of Human-Inspired Intelligent Fonts Using Conditional-DCGAN
Mars et al. Handwriting recognition system for Arabic language learning
Watchanupaporn English to Thai Calligraphy Style Transfer Using Deep Learning
JPH05233581A (en) Neural network applying system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20010206

LAPS Cancellation because of no payment of annual fees