JPH05173537A - Character font generating method by neural network - Google Patents

Character font generating method by neural network

Info

Publication number
JPH05173537A
JPH05173537A JP3345002A JP34500291A JPH05173537A JP H05173537 A JPH05173537 A JP H05173537A JP 3345002 A JP3345002 A JP 3345002A JP 34500291 A JP34500291 A JP 34500291A JP H05173537 A JPH05173537 A JP H05173537A
Authority
JP
Japan
Prior art keywords
character font
font
typeface
parts
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP3345002A
Other languages
Japanese (ja)
Inventor
Kazushige Saga
一繁 佐賀
Atsuko Asakawa
敦子 浅川
Kazuo Asakawa
和雄 浅川
Shigemi Osada
茂美 長田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP3345002A priority Critical patent/JPH05173537A/en
Publication of JPH05173537A publication Critical patent/JPH05173537A/en
Withdrawn legal-status Critical Current

Links

Abstract

PURPOSE:To generate another character font having good quality from one character font. CONSTITUTION:This character font generating method divides one character font into thin KANA (Japanese syllabary) parts and substitutes the parts with parts of another character font to generate another character font; and the neural network 7 learns the position between the positions of the parts and the position of the parts of another character font by using a rough shape of one character font, the congestion extent of the components of the character font, and the kinds of the parts as parameters, and the positions of the parts are inputted to the neural network 7 by using the rough shape of one character font, the congestion extent of the parts of the character font, and the kinds of the parts as parameters to obtain the positions of the parts of the new character font.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】〔目次〕 産業上の利用分野 従来の技術(図7) 発明が解決しようとする課題 課題を解決するための手段(図1) 作用 実施例 (a) 一実施例の説明(図2乃至図6) (b) 他の実施例の説明 発明の効果[Table of Contents] Industrial Application Field of the Prior Art (FIG. 7) Problem to be Solved by the Invention Means for Solving the Problem (FIG. 1) Action Example (a) Description of One Example (FIG. 2) To FIG. 6) (b) Description of another embodiment Effect of the invention

【0002】[0002]

【産業上の利用分野】本発明は、一の書体の文字フォン
トから他の書体の文字フォントを、ニューラルネットワ
ークを用いて生成するニューラルネットワークによる文
字フォント生成方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a neural network character font generation method for generating a character font of another typeface from a character font of one typeface by using a neural network.

【0003】ワードプロセッサ、電子写植機、ディスプ
レイ装置、プリンタ装置等において、種々の日本語文字
フォントが使用されており、このような日本語文字フォ
ントは、1書体でも、7000文字もあり、この生成は
多大の労力を要する。
Various Japanese character fonts are used in word processors, electronic typesetting machines, display devices, printer devices, etc. Such Japanese character fonts have one typeface or 7,000 characters. It takes a lot of work.

【0004】一般に、使用フォントを作成するには、既
に世の中に活字として存在している文字フォントの場合
には、活字による印刷物をスキャナ等で読み取り、人間
が細かな修正を行い、存在しない文字フォントの場合
は、その文字フォントを書いて、スキャナで読み取り、
人手で修正を加えたり、最初から文字フォント編集シス
テム上で作り出す。
Generally, in order to create a font to be used, in the case of a character font that already exists as a type in the world, a printed matter in a type is read by a scanner or the like, a human makes minor corrections, and a character font that does not exist. In case of, write the character font and read it with a scanner,
Make corrections manually or create from the beginning on a character font editing system.

【0005】このように、日本語文字フォントは文字数
が多く、多大な労力と作成コストを必要とするため、提
供されている日本語文字フォントの書体の種類は、一般
的なワードプロセッサにおいては、英文字の約20種類
に比し、極めて少なく2〜3種類である。
As described above, since the Japanese character font has a large number of characters and requires a great deal of labor and creation cost, the typeface type of the Japanese character font provided is in English in a general word processor. Compared to about 20 types of characters, there are very few 2-3 types.

【0006】このように、日本語文字フォントの書体種
類が少ないと、出力物に対する著者の個性が出にくく、
又出力物の種類に応じて選択できる書体が限られる。こ
のため、多くの書体の日本語文字フォントを簡易に生成
することが望まれている。
[0006] As described above, when the typefaces of Japanese character fonts are small, it is difficult for the author's personality to appear in the output,
Also, the typefaces that can be selected according to the type of output material are limited. Therefore, it is desired to easily generate Japanese character fonts for many typefaces.

【0007】[0007]

【従来の技術】図7は従来技術の説明図である。個々の
文字は、へん、つくりに分けられ、さらに細かく分ける
と、ストロークに分けられ、更に分けると、直線、左端
の飾り、右端の飾りなどの部品に分けられる。
2. Description of the Related Art FIG. 7 is an explanatory diagram of a conventional technique. Each character is divided into a crease and a make-up, further divided into strokes, and further divided into parts such as a straight line, a left end decoration, and a right end decoration.

【0008】つまり、ある文字フォントは、かかる部品
の集合であると言える。そこで、文字1つ1つを部品の
集合として表現し、文字フォントを生成する試みが従来
からなされてきた。
That is, it can be said that a character font is a set of such parts. Therefore, an attempt has conventionally been made to represent each character as a set of parts and generate a character font.

【0009】例えば、図7(A)に示すように、基本文
字としてストローク文字の「語」は、図7(B)のよう
に、そのへんとして「言」があり、その横線ストローク
は、図7(C)のように、左端、直線、右端の部品に分
かれる。
For example, as shown in FIG. 7 (A), a stroke word "word" as a basic character has a "word" as its edge as shown in FIG. 7 (B), and its horizontal stroke is As shown in 7 (C), the parts are divided into the left end, the straight line, and the right end.

【0010】この部品の左端を、明朝体の左端部品に、
右端を明朝体の右端部品に、置換すると、図7(D)に
示すように、明朝体の文字パターンが生成できる。この
ようにして、1つの基準文字パターンを持つことによ
り、その部品を各書体の部品に置換することにより、種
々の書体の文字パターンが生成できる。
The left end of this part is the leftmost part of the Mincho body
When the right end is replaced with the right end part of Mincho type, a character pattern of Mincho type can be generated as shown in FIG. 7 (D). In this way, by having one reference character pattern, the parts can be replaced with the parts of each typeface to generate character patterns of various typefaces.

【0011】[0011]

【発明が解決しようとする課題】しかしながら、従来技
術では、次の問題があった。 文字フォントを構成する部品の形状は変わるものの、
部品間の相対位置が変化しないため、図7(E)に示す
本来の明朝体とは、図7(D)の単に部品を置換した明
朝体は,文字全体の形状が異なり、バランスと品質の良
い他の書体の文字が得られない。
However, the prior art has the following problems. Although the shape of the parts that make up the character font changes,
Since the relative position between the parts does not change, the shape of the whole character is different from the original Mincho body shown in FIG. 7 (E), which is a simple replacement of the parts shown in FIG. 7 (D). I can't get other good typeface characters.

【0012】又、文字フォントの性質等のパラメータ
と部品の位置関係をルール化し、人工知能の手法を用い
て、文字を生成する方法も提案されているが、各パラメ
ータが複雑に関連し合っているため、ルール作りが難し
く、生成された文字フォントの品質が良好でない。
There is also proposed a method in which the positional relationship between parameters such as character font characteristics and parts is made into a rule, and characters are generated using an artificial intelligence method. However, each parameter is complicatedly related to each other. Therefore, it is difficult to make rules, and the quality of the generated character font is not good.

【0013】従って、本発明は、一の書体の文字フォン
トから品質の良い他の書体の文字フォントを生成するこ
とができるニューラルネットワークによる文字フォント
生成方法を提供することを目的とする。
Accordingly, it is an object of the present invention to provide a character font generation method by a neural network capable of generating a high quality character font of another typeface from a character font of one typeface.

【0014】[0014]

【課題を解決するための手段】図1は本発明の原理図で
ある。本発明の請求項1は、一の書体の文字フォントを
細かな部品に分割し、該部品を他の書体の文字フォント
の部品に置換して、他の書体の文字フォントを生成する
文字フォント生成方法において、該一の書体のいくつか
の文字フォントのおおまかな形状と、該文字フォントを
構成する部品の混み具合と、該部品の種類とをパラメー
タとして、該部品の位置と人手により作成された、一の
書体で選択した文字と同じ文字のフォント、該他の書体
の文字フォントの部品の位置との関係をニューラルネッ
トワーク7に学習させ、該一の書体の学習していない文
字フォントのおおまかな形状と、該文字フォントを構成
する部品の混み具合と、該部品の種類とをパラメータと
して、該部品の位置を、該ニューラルネットワーク7に
入力して、該他の書体の学習していない文字フォントの
部品の位置を得ることを特徴とする。
FIG. 1 shows the principle of the present invention. According to claim 1 of the present invention, a character font generation is performed in which a character font of one typeface is divided into fine parts and the parts are replaced with parts of a character font of another typeface to generate a character font of another typeface. In the method, the rough shape of some character fonts of the one typeface, the degree of congestion of the parts constituting the character font, and the kind of the part are used as parameters, and the position and the part of the part are manually created. , The neural network 7 is made to learn the relationship between the font of the same character as the character selected in one typeface and the position of the parts of the character font of the other typeface, and the rough outline of the character font that the one typeface has not learned. By inputting the position of the part to the neural network 7 using the shape, the congestion degree of the parts constituting the character font, and the kind of the part as parameters, And wherein the obtaining the position of the character font parts that do not learn.

【0015】本発明の請求項2は、請求項1において、
前記一の書体の文字フォントのおおまかな形状と、該文
字フォントを構成する部品の混み具合と、該部品の種類
とをパラメータとして、該部品の位置を、前記ニューラ
ルネットワーク7の入力側教師データとし、前記一の書
体の文字フォントの部品と、他の書体の文字フォントの
部品の位置の差を、前記ニューラルネットワーク7の出
力側教師データとし、前記ニューラルネットワーク7を
学習することを特徴とする。
According to claim 2 of the present invention, in claim 1,
The rough shape of the character font of the one typeface, the degree of crowding of the parts forming the character font, and the kind of the part are used as parameters, and the position of the part is used as the input side teacher data of the neural network 7. , The neural network 7 is learned by using the difference between the positions of the character font parts of the one typeface and the character font parts of the other typeface as the output side teaching data of the neural network 7.

【0016】本発明の請求項3は、請求項1において、
前記一の書体の文字フォントのおおまかな形状と、該文
字フォントを構成する部品の混み具合と、該部品の種類
とをパラメータとして、該部品の位置を、前記ニューラ
ルネットワーク7の入力側教師データとし、前記他の書
体の文字フォントの部品の位置を、前記ニューラルネッ
トワーク7の出力側教師データとし、前記ニューラルネ
ットワーク7を学習することを特徴とする。
A third aspect of the present invention is based on the first aspect.
The rough shape of the character font of the one typeface, the degree of crowding of the parts forming the character font, and the kind of the part are used as parameters, and the position of the part is used as the input side teacher data of the neural network 7. , Learning of the neural network 7 is performed by using the positions of the character font parts of the other typeface as output side teaching data of the neural network 7.

【0017】本発明の請求項4は、請求項1又は2又は
3において、前記一の書体の文字フォントのおおまかな
形状として、前記一の書体の文字フォントの解像度を低
下させたものを用いることを特徴とする。
According to claim 4 of the present invention, in claim 1 or claim 2 or 3, the character font of the one typeface is a rough font having a reduced resolution of the character font of the one typeface. Is characterized by.

【0018】本発明の請求項5は、請求項1又は2又は
3又は4において、前記文字フォントを構成する部品の
混み具合として、前記部品の位置の解像度が高く、周囲
の解像度が低いマスクを介したデータを用いることを特
徴とする。
According to a fifth aspect of the present invention, in the first, second, third, or fourth aspect, a mask having a high resolution at the position of the part and a low peripheral resolution is used as the crowded condition of the parts constituting the character font. It is characterized by using the data through.

【0019】[0019]

【作用】ある文字のある部品位置は、その文字のおおよ
その形状と、その部品の周囲の混み具合とにより決定さ
れると考えられる。また、同一書体であれば、その部品
の配置の特徴は共通であると考えられる。例えば明朝体
はうろこと呼ばれるかざりがあるため、骨文字にくら
べ、横棒は少し下にたて棒は少し左に配置される。
It is considered that the position of a certain part of a character is determined by the approximate shape of the character and the degree of congestion around the part. Further, if the typefaces are the same, it is considered that the arrangement features of the parts are common. For example, the Mincho type has a decoration called a scale, so the horizontal bar is located slightly below and the vertical bar is located slightly to the left, compared to bone characters.

【0020】一方、ニューラルネットワーク7は、入力
と出力との関係を学習して、ルールを容易に形成でき
る。そこで、本発明の請求項1では、該一の書体の文字
フォントのおおまかな形状と、該文字フォントを構成す
る部品の混み具合と、該部品の種類とをパラメータとし
て、該部品の位置と該他の書体の文字フォントの部品の
位置との関係をニューラルネットワーク7に学習させ、
該一の書体の文字フォントのおおまかな形状と、該文字
フォントを構成する部品の混み具合と、該部品の種類と
をパラメータとして、該部品の位置を、該ニューラルネ
ットワーク7に入力して、該他の書体の文字フォントの
部品の位置を得るようにして、他の書体に応じた部品の
配置位置を生成して、バランスと品質の良い他の書体の
文字フォントを得るものである。ニューラルネットは骨
文字と作成文字の部品の配置のちがいの特徴を学習する
ことになる。
On the other hand, the neural network 7 can easily form a rule by learning the relationship between the input and the output. Therefore, in claim 1 of the present invention, the rough shape of the character font of the one typeface, the degree of crowding of the parts constituting the character font, and the kind of the part are used as parameters, and the position of the part and the Let the neural network 7 learn the relationship with the positions of the parts of the character font of other typefaces,
With the rough shape of the character font of the one typeface, the degree of crowding of the parts forming the character font, and the kind of the part as parameters, the position of the part is input to the neural network 7, By obtaining the positions of parts of character fonts of other typefaces, the arrangement positions of parts according to other typefaces are generated, and character fonts of other typefaces with good balance and quality are obtained. The neural network will learn the characteristics of the difference in the arrangement of the parts of bone characters and created characters.

【0021】本発明の請求項2では、前記一の書体の文
字フォントのおおまかな形状と、該文字フォントを構成
する部品の混み具合と、該部品の種類とをパラメータと
して、該部品の位置を、前記ニューラルネットワーク7
の入力側教師データとし、前記一の書体の文字フォント
の部品と、他の書体の文字フォントの部品の位置の差
を、前記ニューラルネットワーク7の出力側教師データ
とし、前記ニューラルネットワーク7を学習するので、
ニューラルネットワーク7の出力として、書体間の部品
の相対位置差が得られ、誤差の少ない配置位置が得られ
る。
According to a second aspect of the present invention, the position of the part is determined by using the rough shape of the character font of the one typeface, the degree of congestion of parts constituting the character font, and the kind of the part as parameters. , The neural network 7
The input side teacher data is used as the input side teacher data, and the difference between the positions of the character font parts of the one typeface and the character font parts of the other typeface is used as the output side teacher data of the neural network 7, and the neural network 7 is learned. So
As the output of the neural network 7, the relative positional difference of the parts between the fonts can be obtained, and the arrangement position with less error can be obtained.

【0022】本発明の請求項3では、前記一の書体の文
字フォントのおおまかな形状と、該文字フォントを構成
する部品の混み具合と、該部品の種類とをパラメータと
して、該部品の位置を、前記ニューラルネットワーク7
の入力側教師データとし、前記他の書体の文字フォント
の部品の位置を、前記ニューラルネットワーク7の出力
側教師データとし、前記ニューラルネットワーク7を学
習するので、ニューラルネットワーク7の出力として、
直接他の書体の部品の配置位置が得られる。
According to a third aspect of the present invention, the position of the part is determined by using the rough shape of the character font of the one typeface, the degree of congestion of parts constituting the character font, and the kind of the part as parameters. , The neural network 7
As the input side teacher data, and the position of the part of the character font of the other typeface as the output side teacher data of the neural network 7, the neural network 7 is learned, so that the output of the neural network 7 is
It is possible to directly obtain the arrangement position of other typeface parts.

【0023】本発明の請求項4では、前記一の書体の文
字フォントのおおまかな形状として、前記一の書体の文
字フォントの解像度を低下させたものを用いるので、容
易に文字フォントのおおまかな形状を得ることができ
る。
In claim 4 of the present invention, since the character font of the one typeface has a reduced resolution of the character font of the one typeface, the rough shape of the character font can be easily obtained. Can be obtained.

【0024】本発明の請求項5では、前記文字フォント
を構成する部品の混み具合として、前記部品の位置の解
像度が高く、周囲の解像度が低いマスクを介したデータ
を用いるので、容易に部品の混み具合のデータを得るこ
とができる。
According to the fifth aspect of the present invention, since the data through a mask having a high position resolution and a low surrounding resolution is used as the congestion degree of the components forming the character font, the component It is possible to obtain data on the degree of congestion.

【0025】[0025]

【実施例】【Example】

(a) 一実施例の説明 図2は本発明の一実施例構成図、図3は本発明の一実施
例文字フォントの説明図、図4は本発明の一実施例フォ
ントデータの説明図、図5は本発明の一実施例パターン
切り出し説明図、図6は本発明の一実施例生成動作説明
図である。
(a) Description of an embodiment FIG. 2 is a block diagram of an embodiment of the present invention, FIG. 3 is an illustration of a character font of an embodiment of the present invention, and FIG. 4 is an illustration of font data of an embodiment of the present invention. FIG. 5 is an explanatory diagram of pattern cutting according to an embodiment of the present invention, and FIG. 6 is an explanatory diagram of a generation operation of an embodiment of the present invention.

【0026】図2において、1は基準フォントデータ記
憶部であり、図3(A)、図4(A)に示すように、基
準フォントの各部品の位置を格納するものであり、例え
ば、7000文字のフォントデータを記憶しているも
の、2はドットパターン展開部であり、基準フォントデ
ータ記憶部の図4(A)のフォントデータから図3
(A)のドットパターンのフォントに展開するもの、3
はドットパターン一次記憶部であり、ドットパターン展
開部2で展開されたドットパターンのフォントを一次記
憶しておくものである。
In FIG. 2, reference numeral 1 is a reference font data storage unit which stores the position of each component of the reference font as shown in FIGS. 3 (A) and 4 (A), for example, 7000. What stores character font data, 2 is a dot pattern expansion unit, which is shown in FIG. 3 from the font data of FIG. 4A of the reference font data storage unit.
What is developed in the dot pattern font of (A), 3
Is a dot pattern primary storage unit for temporarily storing the dot pattern font developed by the dot pattern development unit 2.

【0027】4は解像度変換部であり、ドットパターン
一次記憶部3のフォントデータ(例えば、256×25
6)を、解像度変換して、16×16の低解像度のフォ
ントに変換して、フォントのおおよそ形状を形成するも
の、5はパターン切り出し部であり、図5(A)に示す
ように、3×3の枡目a1 〜a9 の中央a9 を、3×3
の枡目b1 〜b9 に分割し、更にその中央b9 を、3×
3の枡目に分割して、中央程解像度が高く、周囲に行く
程解像度が低くなるマスクで構成され、ドットパターン
一次記憶部3のフォントデータから対象部品の周囲の混
み具合データを作成するものである。
Reference numeral 4 denotes a resolution conversion unit, which is font data (for example, 256 × 25) in the dot pattern primary storage unit 3.
6) is resolution-converted into a 16 × 16 low-resolution font to form an approximate shape of the font. Reference numeral 5 is a pattern cutout portion, and as shown in FIG. the central a 9 of squares a 1 ~a 9 of × 3, 3 × 3
Cells b 1 to b 9 and the center b 9 is 3 ×
It is divided into cells of 3 and is composed of a mask having a higher resolution in the center and a lower resolution in the surroundings, and creates congestion degree data around the target component from the font data in the dot pattern primary storage unit 3. Is.

【0028】7はニューラルネットワークであり、部品
識別ユニット6を有し、基準フォントデータ記憶部1の
部品の配置座標(X、Y)と、部品の種類と、解像度変
換部4からのフォントのおおよその形状データと、パタ
ーン切り出し部5からの当該部品の周囲の混み具合デー
タを入力とし、学習データを教師データとして、基準フ
ォントの部品の位置と、作成フォントの部品の位置との
関係を学習するものである。
Reference numeral 7 is a neural network, which has a parts identification unit 6, and is used to roughly determine the arrangement coordinates (X, Y) of the parts in the reference font data storage unit 1, the kind of the parts, and the font from the resolution conversion unit 4. Shape data and the congestion degree data around the part from the pattern cutout portion 5 are input, and the learning data is used as teacher data to learn the relationship between the position of the part of the reference font and the position of the part of the created font. It is a thing.

【0029】8は学習データ記憶部であり、図3(B)
の如く作成したいフォントの一部を入手によって作成し
て得た図4(B)の生成フォントの部品データの座標
と、基準フォントの部品データの座標との差を図4
(C)の如く、出力側教師データとして格納するもの、
9は文字データ生成部であり、ニューラルネットワーク
7からのオフセット値X、Yと基準フォントの当該部品
の配置座標とから生成フォントの部品の配置座標を生成
し、部品の種類(ストロークの右端等)とともに出力す
るもの、10は文字データ格納部であり、文字データ生
成部9からの生成フォントの部品の種類と、その配置座
標とを格納しておくものである。
Reference numeral 8 is a learning data storage unit, which is shown in FIG.
The difference between the coordinates of the component data of the generated font of FIG. 4B obtained by obtaining a part of the font to be created as shown in FIG.
What is stored as output side teacher data as in (C),
Reference numeral 9 denotes a character data generation unit, which generates the arrangement coordinates of the parts of the generated font from the offset values X and Y from the neural network 7 and the arrangement coordinates of the parts of the reference font, and the kind of the parts (right end of stroke, etc.). The character data storage unit 10 outputs the type of parts of the generated font from the character data generation unit 9 and the arrangement coordinates thereof.

【0030】次に、動作を説明すると、先ず学習用文字
データを作成する。基準フォントは、図3(A)に示す
ように、各部品に分割され、図4(A)に示すように、
各部品の種類と、その原点座標データ(X、Y)と部品
間の連絡関係とで表現されて、例えば、7000文字
分、基準フォントデータ記憶部1に格納されているもの
とする。
Next, the operation will be described. First, learning character data is created. The reference font is divided into parts as shown in FIG. 3 (A), and as shown in FIG. 4 (A),
It is assumed that each component is expressed by the origin coordinate data (X, Y) of each component and the communication relationship between the components, and for example, 7,000 characters are stored in the reference font data storage unit 1.

【0031】例えば、図3(A)の文字「語」で説明す
ると、へん「言」のストローク「−」は、右端、直線、
左端の部品に分割され、図4(A)に示すように、スト
ローク「−」の部品として、右端、直線、左端の配置原
点座標(絶対座標)X、Yと、その部品間の連絡関係が
データとして記憶される。
For example, referring to the character "word" in FIG. 3A, the stroke "-" of the word "word" is the right end, a straight line,
As shown in FIG. 4 (A), the stroke origin is divided into the leftmost parts, and as the stroke "-" parts, the origin origin coordinates (absolute coordinates) X and Y of the right end, the straight line, and the left end, and the communication relationship between the parts are shown. It is stored as data.

【0032】一方、作成するフォントの文字の中で、文
字を表現するための全ての部品を含み、且つ作成するフ
ォントの特徴を明確に表している文字の幾つか(例え
ば、100文字分)を、従来のように作成する。
On the other hand, among the characters of the font to be created, some of the characters (for example, 100 characters) that include all the parts for expressing the characters and clearly represent the characteristics of the font to be created. , Create as before.

【0033】この時、使用する座標系の大きさは、基準
フォントと同一の大きさとし、又文字データの表現形式
も、基準フォントのデータと同一のものとする。例え
ば、図3(B)に示すように、作成フォントを明朝体と
すると、明朝体の特徴を表現している「語」を選び、こ
のパターンを作成し、基準フォントの「語」と同様に、
へん「言」のストローク「−」を、右端、直線、左端の
部品に分割し、図4(B)に示すように、ストローク
「−」の部品として、右端,直線、左端の配置原点座標
(絶対座標)X、Yと、その部品間の連絡関係がデータ
とを作成する。
At this time, the size of the coordinate system used is the same as that of the reference font, and the expression format of the character data is also the same as that of the reference font data. For example, as shown in FIG. 3 (B), when the created font is Mincho type, "Word" that expresses the characteristics of Mincho type is selected, this pattern is created, and "Word" of the standard font is created. Similarly,
The stroke "-" of the word "word" is divided into right end, straight line, and left end parts, and as shown in FIG. Absolute coordinates) X, Y and the communication relationship between the parts create data.

【0034】そして、図4(C)に示すように、基準フ
ォントの各部品の配置座標(X1m〜X3m、Y1m〜
Y3m)と、作成フォントの各部品の配置座標(X1n
〜X3n、Y1n〜Y3n)との差分を、各部品の種類
毎に作成し、出力側教師データとして学習データ記憶部
8に記憶しておく。
Then, as shown in FIG. 4 (C), the arrangement coordinates (X1m to X3m, Y1m to
Y3m) and the placement coordinates of each part of the created font (X1n
To X3n, Y1n to Y3n) are created for each type of each part and stored in the learning data storage unit 8 as output side teaching data.

【0035】次に、ニューラルネットによるフォントの
特徴と部品の配置位置の関係の学習を行う。ある文字フ
ォントの部品の配置位置は、その文字のおおよその形状
と、その部品の周囲の混み具合によって決定されると考
えられる。
Next, the neural network is used to learn the relationship between the font characteristics and the placement positions of the parts. It is considered that the arrangement position of the part of a certain character font is determined by the approximate shape of the character and the degree of congestion around the part.

【0036】そこで、文字のおおよその形状として基準
フォントのドットパターンの解像度を低下させたもの
を、周囲の混み具合として、図5(B)に示すように、
マスクの中央を、標準フォントの同一部品の座標に合わ
せた時の、標準パターンのドットパターンを、標準フォ
ントの同一部品の座標と、部品の種類を、ニューラルネ
ットワーク7の入力側教師データとして、学習データ記
憶部8の当該部品の差分データを出力側教師データとし
て、作成した作成フォントの部品の数だけ、周知のバッ
クプロパゲーションによる学習を行う。
Therefore, as shown in FIG. 5B, the approximate shape of the character, which is obtained by reducing the resolution of the dot pattern of the reference font, is shown as the degree of congestion in the surroundings.
Learning the dot pattern of the standard pattern when the center of the mask is aligned with the coordinates of the same part of the standard font, the coordinates of the same part of the standard font, and the kind of the part as the input side teacher data of the neural network 7. Using the difference data of the relevant part in the data storage unit 8 as the output side teaching data, learning is performed by the known back propagation as many as the number of the created font parts.

【0037】即ち、基準フォントデータ記憶部1から作
成した文字と同じ文字のデータを取り出し、ドットパタ
ーン展開部2で、その文字をドットパターンに展開し、
ドットパターン記憶部3に記憶する。
That is, data of the same character as the created character is taken out from the reference font data storage unit 1, and the dot pattern expansion unit 2 expands the character into a dot pattern.
It is stored in the dot pattern storage unit 3.

【0038】そして、解像度変換部4により、ドットパ
ターン記憶部3のドットパターン(例えば、256×2
56)を解像度の低下したドットパターン(例えば、1
6×16)に変換して入力する。
Then, the resolution conversion unit 4 causes the dot pattern (for example, 256 × 2) of the dot pattern storage unit 3 to be generated.
56) is a dot pattern with reduced resolution (for example, 1
6x16) and input.

【0039】更に、学習する部品の座標と、ドットパタ
ーン記憶部3のドットパターンとを、パターン切り出し
部5に入力すると、図5(B)に示すように、入力され
た部品の座標を中心として、その座標から離れるほど解
像度が低下するパターンを生成する。
Furthermore, when the coordinates of the part to be learned and the dot pattern of the dot pattern storage unit 3 are input to the pattern cutout unit 5, as shown in FIG. 5B, the coordinates of the input component are centered. , A pattern whose resolution decreases as the distance from the coordinates is increased.

【0040】解像度変換部4の出力と、パターン切り出
し部5の出力と、標準フォントの部品の座標とを、ニュ
ーラルネットワーク7に入力し、部品識別ユニット6の
標準フォントの当該部品の種類に対応するユニットを
「1」とし、ニューラルネットワーク7の入力側教師デ
ータとし、学習データ記憶部8の当該部品の差分データ
を、ニューラルネットワーク7の出力側教師データとし
て、周知のバックプロパゲーションによる学習を行う。
The output of the resolution conversion unit 4, the output of the pattern cutout unit 5, and the coordinates of the parts of the standard font are input to the neural network 7 and correspond to the type of the parts of the standard font of the part identification unit 6. The unit is set to “1”, the input side teacher data of the neural network 7 is used, and the difference data of the relevant part of the learning data storage unit 8 is used as the output side teacher data of the neural network 7, and learning by known back propagation is performed.

【0041】作成した文字フォントの部品の数だけ、ニ
ューラルネットワーク7に学習させると、標準文字フォ
ントの各部品位置と、作成文字フォントの各部品位置と
の差を生成する関数(ルール)が形成される。
When the neural network 7 is made to learn as many as the parts of the created character font, a function (rule) for forming the difference between each part position of the standard character font and each part position of the created character font is formed. It

【0042】このようにして、ニューラルネットワーク
7を学習した後、ニューラルネットワーク7による部品
の配置位置の決定を行う。基準フォントデータ記憶部1
から、生成したい文字の基準フォントのデータを取り出
し、学習と同様に、ドットパターン展開部2で、その文
字をドットパターンに展開し、ドットパターン記憶部3
に記憶し、解像度変換部4により、ドットパターン記憶
部3のドットパターン(例えば、256×256)を解
像度の低下したドットパターン(例えば、16×16)
に変換し,更に、対象とする部品の座標と、ドットパタ
ーン記憶部3のドットパターンとを、パターン切り出し
部5に入力すると、図5(B)に示すように、入力され
た部品の座標を中心として、その座標から離れるほど解
像度が低下するパターンを生成する。
After learning the neural network 7 in this way, the placement position of the component is determined by the neural network 7. Reference font data storage unit 1
From the above, the reference font data of the character to be generated is extracted, and similarly to the learning, the dot pattern expansion unit 2 expands the character into a dot pattern, and the dot pattern storage unit 3
The dot pattern (for example, 256 × 256) of the dot pattern storage unit 3 stored in the resolution conversion unit 4 has a reduced resolution (for example, 16 × 16).
When the coordinates of the target component and the dot pattern of the dot pattern storage unit 3 are input to the pattern cutout unit 5, the coordinates of the input component are converted into the coordinates of the target component, as shown in FIG. 5B. As a center, a pattern whose resolution decreases as the distance from the coordinates is increased is generated.

【0043】解像度変換部4の出力と、パターン切り出
し部5の出力と、標準フォントの部品の座標とを、ニュ
ーラルネットワーク7に入力し、部品識別ユニット6の
標準フォントの当該部品の種類に対応するユニットを
「1」とし、ニューラルネットワーク7に入力すると、
ネットワーク7の出力には、生成する文字フォントにお
ける、入力した標準フォントの文字と同一文字の同一部
品について、標準フォントの部品位置との差が出力され
る。
The output of the resolution conversion unit 4, the output of the pattern cutout unit 5, and the coordinates of the parts of the standard font are input to the neural network 7 and correspond to the type of the parts of the standard font of the part identification unit 6. When the unit is set to "1" and input to the neural network 7,
In the output of the network 7, the difference between the part position of the standard font and the same part of the same character as the input standard font in the generated character font is output.

【0044】但し、この出力は、0と1の間に正規化さ
れているため、文字データ生成部9で、元の座標系の大
きさに変換し、基準フォントの当該部品の位置情報を加
えることで、生成フォントの配置位置情報となる。
However, since this output is normalized between 0 and 1, the character data generator 9 converts it to the size of the original coordinate system and adds the position information of the relevant part of the reference font. As a result, it becomes the layout position information of the generated font.

【0045】図6で説明すると、図6(A)に示すよう
な、標準フォント「詔」から明朝体フォント「詔」を生
成するのに、図6(B)に示すように、かかる標準フォ
ントの部品の種類(ストロークの左端等)と、その部品
の座標(X1m、Y1m)と、解像度を低下した標準パ
ターンと、切り出しパターンをニューラルネットワーク
7に入力すると、ニューラルネットワーク7から標準パ
ターン「詔」の部品の配置位置と、明朝体パターン
「詔」の当該部品の配置位置の位置差△X、△Yが出力
され、これを、元の座標系の大きさ(例えば、256×
256)に変換し、データ生成部9で、標準パターン
「詔」の当該部品の配置位置X1m、Y1mから引け
ば、明朝体パターン「詔」の当該部品の配置位置X1
n、Y1nが、図4(A)と同様に得られる。
With reference to FIG. 6, in order to generate a Mincho typeface "Emoji" from the standard font "Emoji" as shown in FIG. 6A, as shown in FIG. When the type of a font component (such as the left end of a stroke), the coordinates (X1m, Y1m) of that component, the standard pattern with reduced resolution, and the cutout pattern are input to the neural network 7, the standard pattern “Pen The positional difference ΔX, ΔY between the arrangement position of the part of “Mincho” and the arrangement position of the part of the Mincho body pattern “詔” is output, and this is the size of the original coordinate system (for example, 256 ×
256), and the data generating unit 9 subtracts from the arrangement positions X1m and Y1m of the corresponding part of the standard pattern “詔”, the arrangement position X1 of the corresponding part of the Mincho type pattern “詔”.
n and Y1n are obtained in the same manner as in FIG.

【0046】これを標準パターン「詔」の各部品につい
て繰り返せば、明朝体パターン「詔」の各部品の配置位
置が得られ、部品の種類と、部品間の連絡関係を文字デ
ータ格納部10に格納することにより、明朝体パターン
「詔」の文字データが得られる。
If this is repeated for each part of the standard pattern "詔", the arrangement position of each part of the Mincho body pattern "詔" is obtained, and the character data storage unit 10 shows the kind of parts and the communication relationship between the parts. The character data of the Mincho body pattern "詔" can be obtained by storing the character data in.

【0047】ここで、文字データ格納部10は、各部品
の座標データのみであるが、部品の種類により、その書
体の部品の形状パターンは、別に格納されているので、
部品の種類により、その書体の部品の形状パターンを引
き出し、座標位置に配置すれば、その書体の文字パター
ンに展開できる。
Here, the character data storage unit 10 stores only the coordinate data of each component, but since the shape pattern of the component of the typeface is stored separately depending on the type of the component,
Depending on the type of the part, if the shape pattern of the part of the typeface is drawn out and placed at the coordinate position, it can be expanded to the character pattern of the typeface.

【0048】このようにして、標準フォントを各部品に
分割し、標準フォントの各部品の位置と、作成フォント
の対応部品の位置との関係を、ニューラルネットワーク
7に学習させることにより、他の作成フォントを、対応
する標準フォントのデータで生成でき、書体に応じた部
品の位置を持つ品質の良いフォントの生成が可能とな
る。
In this way, the standard font is divided into each part, and the neural network 7 learns the relationship between the position of each part of the standard font and the position of the corresponding part of the created font to create another part. The font can be generated with the data of the corresponding standard font, and it is possible to generate a high-quality font having the position of the part corresponding to the typeface.

【0049】又、この実施例では、標準フォントの各部
品と、生成フォントの各部品との配置位置差を出力する
ため、ニューラルネットワーク7の誤差による影響が小
さく、より品質の良いフォントの生成が可能となる。
Further, in this embodiment, since the arrangement position difference between each part of the standard font and each part of the generated font is output, the influence of the error of the neural network 7 is small, and the generation of a font of higher quality is possible. It will be possible.

【0050】(b) 他の実施例の説明 上述の実施例の他に、本発明は、次のような変形が可能
である。 上述の実施例では、標準フォントの各部品と、生成フ
ォントの各部品との配置位置差を出力しているが、生成
フォントの部品配置位置を、ニューラルネットワーク7
の出力側教師データとすれば、ニューラルネットワーク
7から生成フォントの部品配置位置が出力され、標準フ
ォントの部品位置との加減算が必要なく、このようにし
ても良い。
(B) Description of Other Embodiments In addition to the above embodiments, the present invention can be modified as follows. In the above-described embodiment, the arrangement position difference between each component of the standard font and each component of the generated font is output, but the component arrangement position of the generated font is calculated by the neural network 7.
If the output teacher data is output, the component arrangement position of the generated font is output from the neural network 7, and addition / subtraction with the component position of the standard font is not necessary, and this may be done.

【0051】標準フォントのデータとして、各部品を
絶対座標で示しているが、周知のように、文字「語」
を、文字レベルの「言」、「五」、「口」で表現し、更
にこのレベルを、へん、つくりなどの部品レベルで表現
し(例えば、「言」は、「−」、「─」、「−」、
「−」、「口」)、更にこれを図4のように、ストロー
ク部品レベルで表現し、各々相対座標で位置を示しても
良い。
As standard font data, each component is shown in absolute coordinates, but as is well known, the character "word" is used.
Is expressed at the character level of "Word", "Five", and "Mouth", and this level is expressed at the level of parts such as peculiarity and making (for example, "Word" is "-", "-"). , "-",
“−”, “Mouth”), and this may be expressed at the stroke component level as shown in FIG. 4, and the position may be indicated by relative coordinates.

【0052】文字データ格納部10に、各部品の座標
データを格納しているが、各部品の形状パターンを割り
つけ、文字パターンを形成して、格納しても良い。 標準フォントを骨格パターン、作成パターンを明朝体
パターンとしたが、各々他の書体であっても良い。
Although the coordinate data of each part is stored in the character data storage unit 10, the shape pattern of each part may be allocated to form a character pattern and stored. Although the standard font is the skeleton pattern and the creation pattern is the Mincho type pattern, other typefaces may be used.

【0053】以上、本発明を実施例により説明したが、
本発明の主旨の範囲内で種々の変形が可能であり、これ
らを本発明の範囲から排除するものではない。
The present invention has been described above with reference to the embodiments.
Various modifications are possible within the scope of the invention, and these modifications are not excluded from the scope of the invention.

【0054】[0054]

【発明の効果】以上説明したように、本発明によれば、
次の効果を奏する。 作成したい文字フォントのうちのいくつかの文字のフ
ォントを作成するだけですべての文字のフォントを自動
的に生成できる。
As described above, according to the present invention,
It has the following effects. You can create fonts for all characters automatically by creating fonts for some of the character fonts you want to create.

【0055】作成したいフォントの中のいくつかの文
字フォントを人手により作り、その文字フォントを各部
品に分割し、標準フォントの各部品位置と、作成フォン
トの各部品位置との関係を、ニューラルネットワーク7
に学習させ、このネットワークを使用すると、作成して
いない文字フォントについても標準フォントの各部品位
置から作成フォントの各部品位置を得るので、品質の良
い他の書体のフォントを、既存の一の書体のフォントか
ら得ることができる。
Some character fonts among the fonts to be created are manually created, the character fonts are divided into parts, and the relationship between each part position of the standard font and each part position of the created font is neural network. 7
If you use this network, you can obtain the position of each part of the created font from the position of each part of the standard font even for a character font that has not been created. Can be obtained from the font.

【0056】作成フォントの幾つかを作成するだけ
で、ニューラルネットワークが、変換ルールを作成する
ので、専門的な知識をあまり必要とせず、素人にも容易
に、所望の書体の文字フォントが作成でき、個人の特徴
を活かした特有の文字フォントを容易に作成できる。
The neural network creates a conversion rule by simply creating some of the created fonts, so that even an amateur can easily create a character font of a desired typeface without requiring much specialized knowledge. , It is possible to easily create a unique character font that takes advantage of individual characteristics.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の原理図である。FIG. 1 is a principle diagram of the present invention.

【図2】本発明の一実施例構成図である。FIG. 2 is a configuration diagram of an embodiment of the present invention.

【図3】本発明の一実施例文字フォントの説明図であ
る。
FIG. 3 is an explanatory diagram of a character font according to an embodiment of this invention.

【図4】本発明の一実施例フォントデータの説明図であ
る。
FIG. 4 is an explanatory diagram of font data according to an embodiment of the present invention.

【図5】本発明の一実施例パターン切り出し説明図であ
る。
FIG. 5 is an explanatory diagram of pattern cutting according to an embodiment of the present invention.

【図6】本発明の一実施例生成動作説明図である。FIG. 6 is an explanatory diagram of a generation operation according to an embodiment of the present invention.

【図7】従来技術の説明図である。FIG. 7 is an explanatory diagram of a conventional technique.

【符号の説明】[Explanation of symbols]

1 基準フォントデータ記憶部 2 ドットパターン展開部 3 ドットパターン一時記憶部 4 解像度変換部 5 パターン切り出し部 6 部品識別ユニット 7 ニューラルネットワーク 8 学習データ記憶部 9 文字データ生成部 10 文字データ格納部 1 Reference font data storage unit 2 Dot pattern expansion unit 3 Dot pattern temporary storage unit 4 Resolution conversion unit 5 Pattern cutout unit 6 Component identification unit 7 Neural network 8 Learning data storage unit 9 Character data generation unit 10 Character data storage unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 長田 茂美 神奈川県川崎市中原区上小田中1015番地 富士通株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Shigemi Nagata 1015 Kamiodanaka, Nakahara-ku, Kawasaki City, Kanagawa Prefecture Fujitsu Limited

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 一の書体の文字フォントを細かな部品に
分割し、該部品を他の書体の文字フォントの部品に置換
して、他の書体の文字フォントを生成する文字フォント
生成方法において、 該一の書体の文字フォントのおおまかな形状と、該文字
フォントを構成する部品の混み具合と、該部品の種類と
をパラメータとして、該部品の位置と該他の書体の文字
フォントの部品の位置との関係をニューラルネットワー
ク(7)に学習させ、 該一の書体の文字フォントのおおまかな形状と、該文字
フォントを構成する部品の混み具合と、該部品の種類と
をパラメータとして、該部品の位置を、該ニューラルネ
ットワーク(7)に入力して、該他の書体の文字フォン
トの部品の位置を得ることを特徴とするニューラルネッ
トワークによる文字フォント生成方法。
1. A character font generation method for generating a character font of another typeface by dividing a character font of one typeface into fine parts and replacing the part with a component of a character font of another typeface. The position of the part and the position of the part of the character font of the other typeface are set with the rough shape of the character font of the one typeface, the degree of congestion of the parts forming the character font, and the type of the part as parameters. The neural network (7) is made to learn the relationship between the character font of the one typeface, the rough shape of the parts constituting the character font, and the kind of the parts as parameters, and Character font generation by a neural network, characterized in that the position is input to the neural network (7) to obtain the position of the part of the character font of the other typeface. Method.
【請求項2】 前記一の書体の文字フォントのおおまか
な形状と、該文字フォントを構成する部品の混み具合
と、該部品の種類とをパラメータとして、該部品の位置
を、前記ニューラルネットワーク(7)の入力側教師デ
ータとし、前記一の書体の文字フォントの部品と、他の
書体の文字フォントの部品の位置の差を、前記ニューラ
ルネットワーク(7)の出力側教師データとし、前記ニ
ューラルネットワーク(7)を学習することを特徴とす
る請求項1のニューラルネットワークによる文字フォン
ト生成方法。
2. With the rough shape of the character font of the one typeface, the degree of congestion of the parts constituting the character font, and the kind of the part as parameters, the position of the part is determined by the neural network (7). ) Input side teacher data, the difference between the positions of the character font parts of the one typeface and the character font parts of the other typeface is used as the output side teacher data of the neural network (7), and the neural network ( 7. A method for generating a character font by a neural network according to claim 1, wherein the method 7) is learned.
【請求項3】 前記一の書体の文字フォントのおおまか
な形状と、該文字フォントを構成する部品の混み具合
と、該部品の種類とをパラメータとして、該部品の位置
を、前記ニューラルネットワーク(7)の入力側教師デ
ータとし、前記他の書体の文字フォントの部品の位置
を、前記ニューラルネットワーク(7)の出力側教師デ
ータとし、前記ニューラルネットワーク(7)を学習す
ることを特徴とする請求項1のニューラルネットワーク
による文字フォント生成方法。
3. The position of the part is determined by the neural network (7) with the rough shape of the character font of the one typeface, the degree of congestion of parts constituting the character font, and the kind of the part as parameters. ) Is used as the input side teaching data, and the position of the part of the character font of the other typeface is used as the output side teaching data of the neural network (7) to learn the neural network (7). A method for generating a character font by the neural network of 1.
【請求項4】 前記一の書体の文字フォントのおおまか
な形状として、前記一の書体の文字フォントの解像度を
低下させたものを用いることを特徴とする請求項1又は
2又は3のニューラルネットワークによる文字フォント
生成方法。
4. The neural network according to claim 1, wherein the character font of the one typeface has a reduced shape of the character font of the one typeface. Character font generation method.
【請求項5】 前記文字フォントを構成する部品の混み
具合として、前記部品の位置の解像度が高く、周囲の解
像度が低いマスクを介したデータを用いることを特徴と
する請求項1又は2又は3のニューラルネットワークに
よる文字フォント生成方法。
5. The data through a mask having a high position resolution and a low surrounding resolution is used as the congestion degree of the components forming the character font. Character font generation method by Neural Network of K.
【請求項6】 一の書体の文字フォントを細かな部品に
分割し、該部品を他の書体の文字フォントの部品に置換
して、他の書体の文字フォントを生成する文字フォント
生成方法において、 該一の書体の文字フォントのおおまかな形状と、該文字
フォントを構成する部品の混み具合と、該部品の種類と
をパラメータとして、該部品の位置と該他の書体の文字
フォントの部品の位置との関係が学習されたニューラル
ネットワーク(7)に、 該一の書体の文字フォントのおおまかな形状と、該文字
フォントを構成する部品の混み具合と、該部品の種類と
をパラメータとして、該部品の位置を、入力して、該他
の書体の文字フォントの部品の位置を得ることを特徴と
するニューラルネットワークによる文字フォント生成方
法。
6. A character font generation method for generating a character font of another typeface by dividing the character font of one typeface into fine parts and replacing the part with a component of a character font of another typeface. The position of the part and the position of the part of the character font of the other typeface are set with the rough shape of the character font of the one typeface, the degree of congestion of the parts forming the character font, and the type of the part as parameters. The neural network (7) having learned the relationship with the part, using the rough shape of the character font of the one typeface, the degree of crowding of the parts forming the character font, and the kind of the part as parameters, A character font generation method by a neural network, characterized in that the position of the character font component of the other typeface is obtained by inputting the position of the character font.
JP3345002A 1991-12-26 1991-12-26 Character font generating method by neural network Withdrawn JPH05173537A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3345002A JPH05173537A (en) 1991-12-26 1991-12-26 Character font generating method by neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3345002A JPH05173537A (en) 1991-12-26 1991-12-26 Character font generating method by neural network

Publications (1)

Publication Number Publication Date
JPH05173537A true JPH05173537A (en) 1993-07-13

Family

ID=18373619

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3345002A Withdrawn JPH05173537A (en) 1991-12-26 1991-12-26 Character font generating method by neural network

Country Status (1)

Country Link
JP (1) JPH05173537A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107577651A (en) * 2017-08-25 2018-01-12 上海交通大学 Chinese character style migratory system based on confrontation network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107577651A (en) * 2017-08-25 2018-01-12 上海交通大学 Chinese character style migratory system based on confrontation network
CN107577651B (en) * 2017-08-25 2020-11-10 上海媒智科技有限公司 Chinese character font migration system based on countermeasure network

Similar Documents

Publication Publication Date Title
KR950011807B1 (en) Character processing method and apparatus
US5949435A (en) Digital type font providing typographic feature transformation capability
KR100193584B1 (en) Character Generation System and Character Generation Method
US5295238A (en) System, method, and font for printing cursive character strings
JPH01174463A (en) Dot pattern correction method
KR100212412B1 (en) Apparatus for generating character pattern
JPH05173537A (en) Character font generating method by neural network
JPH05265429A (en) Character font generating process system
JPS62212880A (en) Method for designing paper ware
Southall Character description techniques in type manufacture
Adams A dialogue of forms: letter and digital font design
JP2856235B2 (en) Character processing device and character output method
JPH04177295A (en) Character generating device
JP2697328B2 (en) Contour data processing device
JP3008555B2 (en) Vector font output device
JPH04340590A (en) Character font output device
JPH04125590A (en) Method and device for converting character pattern information
JPH04340591A (en) Vector font output device
JPH0583382B2 (en)
JPH0583381B2 (en)
JPS6189061A (en) Printer
JP3025141B2 (en) Character modifier
JPH10319936A (en) Storage medium storing character generation method as program
JPH04340159A (en) Multi-calligaphic style output device
JPH08286655A (en) Character pattern generator

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19990311