WO2020059527A1 - フォント作成装置、フォント作成方法及びフォント作成プログラム - Google Patents

フォント作成装置、フォント作成方法及びフォント作成プログラム Download PDF

Info

Publication number
WO2020059527A1
WO2020059527A1 PCT/JP2019/035056 JP2019035056W WO2020059527A1 WO 2020059527 A1 WO2020059527 A1 WO 2020059527A1 JP 2019035056 W JP2019035056 W JP 2019035056W WO 2020059527 A1 WO2020059527 A1 WO 2020059527A1
Authority
WO
WIPO (PCT)
Prior art keywords
font
feature amount
character image
image
unit
Prior art date
Application number
PCT/JP2019/035056
Other languages
English (en)
French (fr)
Inventor
誠 大関
和幸 板垣
喬俊 狩野
林 伸治
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2020548320A priority Critical patent/JP7482783B2/ja
Publication of WO2020059527A1 publication Critical patent/WO2020059527A1/ja
Priority to US17/198,499 priority patent/US11600031B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • G06V30/244Division of the character sequences into groups prior to recognition; Selection of dictionaries using graphical properties, e.g. alphabet type or font
    • G06V30/245Font recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19127Extracting features by transforming the feature space, e.g. multidimensional scaling; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1916Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/22Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of characters or indicia using display control signals derived from coded signals representing the characters or indicia, e.g. with a character-code memory
    • G09G5/24Generation of individual character patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/103Formatting, i.e. changing of presentation of documents
    • G06F40/109Font handling; Temporal or kinetic typography

Definitions

  • the present invention relates to a font creation device, a font creation method, and a font creation program, and more particularly to a technique for creating a complete set of fonts to be imitated.
  • Patent Document 1 discloses that a standard character font is compared with a character font (for example, a handwritten character) input as an image to extract a displacement of a corresponding point, to extract statistical information thereof, and to respond to the extraction result.
  • a handwritten character font generation system that generates a handwritten character font by changing a standard character font.
  • the handwritten character font generation system described in Patent Literature 1 analyzes a geometric displacement between a standard character font and a character font to be input as an image and the size of a handwritten character, and analyzes the statistical information. It is registered as a feature quantity representing the user's personality, and a standard character font is transformed with the feature quantity representing the user's personality, thereby generating a user-specific handwritten character font.
  • Non-Patent Document 1 using an enemy generation network (GAN: Generative @ Adversarial @ Networks), 26 letters of a similar style are generated from a small number (for example, 5 letters) of an alphabet of a style to be imitated. Techniques are disclosed.
  • GAN Generative @ Adversarial @ Networks
  • GAN has two networks, Generator and Discriminator.
  • Generator generates data similar to the training data (the alphabet of the style you want to imitate), and Discriminator is whether the data is derived from training data or generated model. Identify. Then, the Discriminator learns the Generator and Discriminator so that the data cannot be distinguished from the training data or the generated model (so that the correct answer rate becomes 50%). Enables Generator to generate data similar to training data.
  • the handwritten character font generation system described in Patent Literature 1 generates a user-specific handwritten character font by deforming a standard character font with a feature amount representing the user's personality, but expresses the user's personality.
  • a feature point representing a user's personality by finding a corresponding point between a character font handwritten by the user and a corresponding (same type) standard character font, and extracting a displacement of the corresponding point, for example, It is not possible to generate a handwritten-style "Katakana" character font using the handwritten "Hiragana".
  • Non-Patent Document 1 when the GAN described in Non-Patent Document 1 is used, if the font of the style to be imitated is “alphabet”, a set of “Hiragana”, “Katakana”, and other languages having the characteristics of the font of the style to be imitated Unable to generate font set for
  • the present invention has been made in view of such circumstances, and it is possible to generate a complete set of fonts similar in style to a character image from a small number of character images whose style is to be imitated for any language. It is an object to provide a font creation device, a font creation method, and a font creation program.
  • a font creation device includes a character image acquisition unit that acquires a character image composed of some characters of a first font, A feature amount extraction unit for extracting a first feature amount of the font, an estimation unit for estimating a deformation parameter between the extracted first feature amount and a second feature amount of the reference second font, A feature amount generation unit configured to generate a fourth feature amount of the complete second font set by deforming the third feature amount of the font set based on the estimated deformation parameter; A font generation unit that converts the fourth feature amount into an image and generates a second font set.
  • the character image obtaining unit obtains a character image composed of a part of characters of the first font whose style is desired to be imitated.
  • the character image may be a character image composed of one character or a character string image composed of a plurality of characters.
  • the feature amount extracting unit extracts a first feature amount of the first font from the acquired character image, and the estimating unit extracts a deformation parameter between the extracted first feature amount and the second feature amount of the reference second font. Is estimated.
  • the reference second font is, for example, a general font prepared as a font for a computer.
  • the feature value generation unit generates a fourth feature value of the second font set to be created by performing a deformation process on the third feature value of the set of reference font sets based on the estimated deformation parameters.
  • the font generation unit converts the generated fourth feature amount of the second font set into an image to generate a second font set.
  • the set of reference font sets may be a font set corresponding to any language, so that a set of second font sets for any language can be generated.
  • the character image obtaining unit includes an image input unit configured to input an image in which some characters of the first font are captured, and a character area corresponding to the character from the input image. And a cutout section for cutting out the character region, and it is preferable that an image of the cutout character region is used as a character image.
  • the feature amount extraction unit is a first learned model that has learned the extraction of the feature amount, and the first learned model inputs the acquired character image, It is preferable to output the first feature amount of the character image.
  • the feature amount extracting unit includes a receiving unit that receives an input from a designer indicating a characteristic portion of the character image, and the feature amount extracting unit receives the character portion of the character image received by the receiving unit. It is preferable to extract the first feature amount.
  • the estimation unit may calculate a distance or a similarity between the first feature amount and the second feature amount in the feature amount space to estimate the deformation parameter. preferable.
  • the estimation unit and the feature amount generation unit are second learned models
  • the second learned model is a feature of the first feature amount and the second feature amount. This is a model that minimizes the distance in the quantity space or maximizes the similarity between the first feature amount and the second feature amount.
  • the font generation unit is a self-encoder that converts the fourth feature amount of the second font set into an image.
  • the font generation unit generates vector data as the second font set.
  • the font generation unit generates raster data as the second font set.
  • the reference font set is the same type of font set having a different style from the first font.
  • the reference font set may be the same type of “alphabet”.
  • the reference font set includes two or more types of font sets different in style from the first font.
  • the reference font set can be “hiragana” or “katakana”, which are different from the “alphabet”.
  • a font creation method includes a step of acquiring a character image composed of a part of characters of a first font, and extracting a first feature amount of the first font from the acquired character image. Estimating a transformation parameter between the extracted first feature quantity and the second feature quantity of the reference second font; and estimating the third feature quantity of the set of reference font sets by the estimated transformation parameter. Generating a fourth feature amount of the complete second font set by transforming the second font set based on the second font set, generating a second font set by converting the generated fourth feature amount of the second font set into an image Performing the steps.
  • a font creation program has a function of acquiring a character image composed of some characters of a first font and extracting a first feature amount of the first font from the acquired character image.
  • a function, a function for estimating a deformation parameter between the extracted first feature value and the second feature value of the reference second font, and a deformation parameter for estimating the third feature value of a set of reference font sets Generating a fourth feature amount of the second font set, and converting the generated fourth feature amount of the second font set into an image to generate a complete second font set
  • the functions to be performed are realized by a computer.
  • a complete set of fonts in the same style as the character images can be generated for any language.
  • FIG. 1 is a block diagram showing an example of a hardware configuration of a font creation device according to the present invention.
  • FIG. 2 is a block diagram illustrating an embodiment of the character image acquisition unit 12.
  • FIG. 3 is a block diagram showing a first embodiment of the font creating apparatus 10-1 according to the present invention.
  • FIG. 4 is a diagram showing the first feature amount of the first font indicating the style of the character image 32 in the feature amount space, the second feature amount of the reference second font 34, and the first feature amount and the second feature amount. It is a figure which shows the deformation parameter which shows a relationship.
  • FIG. 5 is a diagram illustrating a state where the third feature amount of the reference font set 36 in the feature amount space is transformed into the fourth feature amount of the second font set 38 by the transformation parameter.
  • FIG. 6 is a main block diagram showing a second embodiment of the font creation device 10-2 according to the present invention.
  • FIG. 7 is a flowchart showing an embodiment of the font creation method according to the present invention.
  • FIG. 1 is a block diagram showing an example of a hardware configuration of a font creation device according to the present invention.
  • the font creation device 10 of the present embodiment mainly includes a character image acquisition unit 12, a font set database (hereinafter, referred to as “font set DB” (DB: database)) 14, a storage unit 16, an operation unit 18, a CPU ( It comprises a Central Processing Unit 20, a RAM (Random Access Memory) 22, a ROM (Read Only Memory) 24, and a display unit 26.
  • DB font set database
  • CPU Central Processing Unit 20
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the character image acquiring unit 12 is a unit that acquires a character image composed of a part of characters of a font (first font) of a style to be imitated.
  • FIG. 2 is a block diagram showing an embodiment of the character image acquiring unit 12. As shown in FIG.
  • the character image obtaining unit 12 includes an image input unit 12A and a cutout unit 12B.
  • the image input unit 12A inputs the image 30 including the character image of the style to be imitated.
  • the user finds a signboard, a poster, a magazine, or the like having a character of the style that he / she wants to imitate
  • the user captures an image of the signboard or the like with a camera and obtains an image 30 including a character image of the style that he / she wants to imitate.
  • the characters of the style to be imitated are printed on a paper medium such as a magazine, the paper medium is read (imaged) by a scanner to obtain the image 30 including the character image of the style to be imitated.
  • the character image may be a character image composed of one character or a character string image composed of a plurality of characters.
  • the user inputs the image 30 acquired as described above to the image input unit 12A.
  • the cutout unit 12B cuts out a character area corresponding to a character from the image 30 input to the image input unit 12A, outputs an image (character image) 32 of the cutout character area to the storage unit 16 or the RAM 22, and stores it here. Let it.
  • the cutout unit 12B may be configured by a machine learning device that recognizes a character area included in an image, or may be a unit that cuts out a character image with the assistance of a user extracting a character image.
  • the image 30 input to the image input unit 12A is displayed on the display unit 26, and the user specifies a character area included in the image 30 displayed on the display unit 26 using the operation unit 18 such as a pointing device.
  • the cutout unit 12B can cut out the character image 32.
  • the font set DB 14 is a storage unit that stores a reference font set.
  • a reference font set for example, an IPA font can be considered.
  • the IPA font is a Japanese outline font, a font set for computers distributed by the Information-Technology Promotion Agency (IPA: Information-technology Promotion Agency, Japan), and IPA Mincho (IPAMincho). , IPAP Mincho (IPAPMincho), IPA Gothic (IPAGothic), and IPAP Gothic (IPAPGothic).
  • the reference font set is not limited to the above example, and may be a font set for an arbitrary language as long as the reference font set is a complete set.
  • the storage unit 16 is a storage unit including a hard disk device, a flash memory, and the like, and is obtained by the operating system, various programs including the font creation program according to the present invention, data such as parameters, and the character image obtaining unit 12.
  • the stored character image 32, a set of font sets (second font set) generated by the apparatus, and the like are stored.
  • the operation unit 18 uses a keyboard, a mouse, and the like that are connected to the computer by wire or wirelessly, and receives various operation inputs when creating fonts.
  • the CPU 20 reads various programs (including the font creation program according to the present invention) stored in the storage unit 16 or the ROM 24 and executes various processes.
  • the RAM 22 is used as a work area of the CPU 20, and is used as a storage unit for temporarily storing read programs and various data.
  • the display unit 26 includes various monitors such as a liquid crystal monitor that can be connected to a computer, and is used together with the operation unit 18 as a part of a user interface.
  • the CPU 20 reads a font creating program stored in the storage unit 16 or the ROM 24 in response to an instruction input from the operation unit 18 and executes the font creating program, so that the Create a complete set of fonts for the style you want.
  • FIG. 3 is a block diagram showing a first embodiment of the font creation device 10-1 according to the present invention, and is a functional block diagram showing main functions of the font creation device 10 shown in FIG.
  • the font creation device 10-1 shown in FIG. 3 mainly includes a feature amount extraction unit 40, an estimation unit 42, a feature amount generation unit 44, and a font generation unit 46.
  • the character image 32 obtained by the character image obtaining unit 12 (FIG. 2) is added to the feature amount extracting unit 40.
  • the feature amount extraction unit 40 extracts a feature amount (first feature amount) of a font (first font) indicating the style of the character image 32 from the input character image 32.
  • the feature amount extraction by the feature amount extraction unit 40 includes a method of merging (weighted averaging, integration by machine learning) each feature amount for the first font indicating the style of the character image 32, and calculating the feature amount directly from the entire font. There is a way to do it.
  • the feature amount extraction by the feature amount extraction unit 40 may be calculated by scoring or machine learning, especially deep learning based on the knowledge of the designer. For example, when the designer looks at the character image 32, the feature amount extracting unit 40 includes a receiving unit that receives an input of a characteristic part that determines an impression of the character image 32. It is conceivable to extract the first feature amount.
  • the character image 32 is input by using a learned model (first learned model) that has learned the extraction of the feature amount and inputting the character image 32 to the first learned model. Is extracted.
  • the first feature value of the first font indicating the style of the character image 32 extracted by the feature value extraction unit 40 is output to the estimation unit 42.
  • the estimating unit 42 estimates a deformation parameter between the first feature amount of the first font indicating the style of the character image 32 and the feature amount (second feature amount) of the reference font (second font) 34. It is.
  • the second reference font 34 can be obtained from the font set DB 14.
  • the reference second font 34 may be a part of a set of font sets stored in the font set DB 14 or may be all fonts.
  • the first font is, for example, an alphabet
  • the reference second font may be an alphabet (that is, the same type of font), or two or more different fonts (for example, “hiragana”, “katakana”, “ Kanji ").
  • the estimation unit 42 estimates a deformation parameter between the first feature amount of the first font indicating the style of the character image 32 and the second feature amount of the reference second font 34.
  • the estimated deformation parameter is a parameter for converting the second feature amount of the reference second font 34 into the first feature amount of the first font indicating the style of the character image 32.
  • FIG. 4 shows the first feature value of the first font (“input AI”) indicating the style of the character image 32 in the feature value space, the second feature value of the reference second font 34 (“reference AI”), and the like. , And a deformation parameter indicating the relationship between the first feature amount and the second feature amount.
  • the estimating unit 42 can estimate the deformation parameter by calculating the distance or similarity between the first feature amount and the second feature amount in the feature amount space, or the deformation parameter can be estimated by machine learning as described later. Can be estimated.
  • the estimating unit 42 inputs the second font 34 and extracts the second feature amount of the second font 34 in the same manner as the feature amount extracting unit 40, but stores the second feature amount in the font set DB 14 or another storage unit in advance.
  • the second feature amount of the font may be stored, and the stored second feature amount of the second font may be input.
  • the deformation parameter estimated by the estimation unit 42 is added to the feature amount generation unit 44.
  • a set of reference font sets 36 is read from the font set DB 14, and a plurality of fonts constituting the reference font set 36 are added to the feature amount generation unit 44 character by character.
  • Which reference font set among a plurality of types of reference font sets for example, font sets such as alphabets, hiragana, katakana, and kanji) stored in the font set DB 14 is input to the feature amount generation unit 44 Can be specified by the user using the operation unit 18.
  • the feature amount generation unit 44 performs a deformation process on the feature amount (third feature amount) of the reference font set 36 based on the estimated deformation parameter, thereby obtaining the fourth feature of the second font set (the font set to be generated). Generate quantity.
  • FIG. 5 is a diagram illustrating a state in which the third feature amount of the reference font set 36 in the feature amount space is transformed into the fourth feature amount of the second font set 38 by the transformation parameter. The case where “a” to “n” of “hiragana” is selected as the complete reference font set 36 is shown.
  • the third feature amount of the font set 36 based on “Hiragana” is transformed into a fourth feature amount by the feature amount generation unit 44 based on the transformation parameter. That is, the fourth feature amount transformed from the third feature amount is the same as the first feature amount of the first font indicating the style of the character image 32 to be imitated.
  • the feature amount generation unit 44 inputs the reference font set 36 and extracts the third feature amount of the reference font set 36 in the same manner as the feature amount extraction unit 40, but the font set DB 14 or another storage unit May be stored in advance, and the stored third feature amount of the reference font set may be input.
  • the fourth feature amount of the second font set which has been subjected to the transformation processing by the feature amount generation unit 44, is output to the font generation unit 46.
  • the font generation unit 46 converts the fourth feature amount of the second font set in the feature amount space into an image in the image space, and generates a set of second font sets having the style of the character image 32 to be imitated.
  • the font generation unit 46 generates raster data representing a character image as a set of pixels as a set of second fonts, but may generate vector data representing a character image by dots, lines, and planes. .
  • the set of second font sets generated by the font generation unit 46 is stored in the storage unit 16.
  • the user can use the complete second font set having the style of the character image 32 to be imitated stored in the storage unit 16.
  • a set of reference font sets of “Hiragana” is input.
  • the present invention is not limited to this, and a reference font set of any language can be input.
  • a second set of “alphabet” font sets having the style of the character image 32 to be imitated can be generated.
  • FIG. 6 is a main block diagram showing a second embodiment of the font creation device 10-2 according to the present invention, and is a functional block diagram showing main functions of the font creation device 10 shown in FIG.
  • the font creation device 10-2 shown in FIG. 6 mainly includes a feature amount extraction unit 40 and a learning device 50.
  • the feature amount extraction unit 40 inputs the character image 32 in the same manner as the feature amount extraction unit 40 shown in FIG. 3, extracts the feature amount of the character image 32, and calculates the loss value of the learning device 50 ( Unit 54).
  • the learning device 50 shown in FIG. 6 mainly includes a CNN 52, a loss value calculation unit 54, and a parameter control unit 56.
  • $ CNN 52 has a plurality of layer structures and holds a plurality of weight parameters.
  • the CNN 52 may change from an unlearned model to a learned model by updating the weight parameter from an initial value to an optimal value.
  • the initial value of the weight parameter of the CNN 52 for example, a weight parameter of a trained model of an image system for performing image classification or the like can be applied. According to this, the CNN 52 is learned in advance, and becomes a desired learning model by learning (fine tuning) using a small amount of learning data.
  • the CNN 52 includes an input layer 52A, an intermediate layer 52B having a plurality of sets composed of a convolutional layer and a pooling layer, and an output layer 52C.
  • Each layer has a structure in which a plurality of “nodes” are connected by “edges”. Has become.
  • the second font 34 to be learned is input to the input layer 52A.
  • the intermediate layer 52B has a plurality of sets each including a convolution layer and a pooling layer as one set, and is a portion for extracting a feature from the second font 34 (image) input from the input layer 52A.
  • the convolution layer performs filtering on a nearby node in the previous layer (performs a convolution operation using a filter) to obtain a “feature map”.
  • the pooling layer reduces the feature map output from the convolutional layer to a new feature map.
  • the “convolution layer” plays a role of feature extraction such as edge extraction from an image, and the “pooling layer” plays a role of providing robustness so that the extracted features are not affected by translation or the like.
  • the intermediate layer 52B is not limited to the case where the convolutional layer and the pooling layer are set as one set, but also includes the case where the convolutional layer is continuous and the normalization layer.
  • the output layer 52C is a part that outputs the recognition result of the CNN 52 (in this example, a feature map indicating the features of the font).
  • the loss value calculation unit 54 acquires the recognition result (feature map) output from the output layer 52C of the CNN 52 and the first feature amount (training data) of the first font indicating the style of the character image 32 to be imitated, Calculate the loss value between the two.
  • a method of calculating the loss value for example, soft max cross entropy, sigmoid, or the like can be considered.
  • the parameter control unit 56 uses the backpropagation method based on the loss value calculated by the loss value calculation unit 54 to calculate the feature space between the training data (first feature) and the output of the CNN 52 (second feature).
  • the weight parameter of the CNN 52 should be adjusted in order to minimize the distance at or to maximize the similarity.
  • the parameter adjustment processing is repeatedly performed, and learning is repeatedly performed until the loss value calculated by the loss value calculation unit 54 converges.
  • the learned CNN 52 having the weight parameter optimized in this way extracts the second feature amount of the second font 34, and the first feature amount of the first font indicating the style of the character image 32 and the second font 34.
  • the learned CNN 52 sets the third feature amount of the reference font set to the first font indicating the style of the character image 32 to be imitated.
  • a fourth feature value (feature map) similar to the first feature value is output.
  • the learned CNN 52 functions as the estimating unit 42 and the feature amount generating unit 44 illustrated in FIG.
  • the fourth feature amount (feature map) of the second font set output from the trained CNN 52 is converted from the fourth feature amount of the second font set in the feature amount space into the image space by the font generation unit 46 (FIG. 3).
  • Image character image
  • the font generation unit 46 can be configured by a self-encoder that converts a feature amount of an image (a fourth feature amount of the second font set) into an image.
  • FIG. 7 is a flowchart showing an embodiment of a font creation method according to the present invention, and shows a processing procedure of each unit of the font creation apparatus 10-1 of the first embodiment shown in FIG.
  • the character image acquisition unit 12 acquires the character image 32 of the style to be imitated (step S10).
  • the feature amount extraction unit 40 extracts the first feature amount of the first font indicating the style of the character image 32 from the character image 32 acquired in step S10 (step S12).
  • the estimating unit 42 estimates a deformation parameter between the first feature value of the first font indicating the style of the character image 32 and the second feature value of the reference font (second font) 34 (step). S14).
  • the feature amount generation unit 44 performs a transformation process on the third feature amount of the set of reference font sets 36 read from the font set DB 14 based on the transformation parameters estimated in step S14, Four feature quantities are generated (step S16).
  • the font generation unit 46 converts the fourth feature amount of the second font set in the feature amount space generated in step S16 into an image in the image space, and provides a set of second font sets having the style of the character image 32 to be imitated. Is generated (step S18).
  • the hardware structure for executing various controls of the font creating apparatus 10 of the present embodiment is various processors as described below.
  • the circuit configuration can be changed after the production of CPUs (Central Processing Units) and FPGAs (Field Programmable Gate Arrays), which are general-purpose processors that execute software (programs) and function as various control units.
  • Logic devices Programmable Logic Devices: PLDs
  • ASICs Application Specific Integrated Circuits
  • dedicated electrical circuits which are processors having a circuit configuration specifically designed to execute specific processing. It is.
  • One processing unit may be configured by one of these various processors, or configured by two or more processors of the same or different types (for example, a plurality of FPGAs or a combination of a CPU and an FPGA). You may. Further, a plurality of control units may be configured by one processor. As an example in which a plurality of control units are configured by one processor, first, as represented by a computer such as a client or a server, one processor is configured by a combination of one or more CPUs and software. There is a form in which a processor functions as a plurality of control units.
  • SoC System-on-Chip
  • IC integrated circuit
  • the hardware structure of these various processors is, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined.
  • the present invention also includes a font creation program that is installed in a computer to function as the font creation device according to the present invention, and a recording medium on which the font creation program is recorded.
  • Font creation device Character image acquisition unit 12A Image input unit 12B Cutout unit 14 Font set DB 16 storage unit 18 operation unit 20 CPU 22 RAM 24 ROM 26 display unit 30 image 32 character image 34 second font 36 reference font set 38 second font set 40 feature amount extraction unit 42 estimation unit 44 feature amount generation unit 46 font generation unit 50 learning device 52 convolutional neural network (CNN) 52A Input layer 52B Intermediate layer 52C Output layer 54 Loss value calculation unit 56 Parameter control units S10 to S18 Step

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Hardware Design (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

スタイルを模倣したい少数の文字画像からその文字画像と同様のスタイルの一揃いのフォントセットを、任意の言語に対して生成することができるフォント作成装置、フォント作成方法及びフォント作成プログラムを提供する。特徴量抽出部(40)は、スタイルを模倣したい第1フォントの文字画像(32)を入力し、その文字画像(32)の第1フォントの第1特徴量を抽出する。推定部(42)は、抽出した第1特徴量と基準の第2フォント(34)の第2特徴量との間の変形パラメータを推定する。特徴量生成部(44)は、一揃いの基準のフォントセット(36)の第3特徴量を、推定した変形パラメータに基づいて変形処理することにより、作成しようとする第2フォントセットの第4特徴量を生成する。フォント生成部(46)は、第2フォントセットの第4特徴量を画像に変換し、一揃いの第2フォントセットを生成する。

Description

フォント作成装置、フォント作成方法及びフォント作成プログラム
 本発明はフォント作成装置、フォント作成方法及びフォント作成プログラムに係り、特に模倣したいスタイルの一揃いのフォントセットを作成する技術に関する。
 特許文献1には、標準の文字フォントと、イメージ入力される文字フォント(例えば、手書き文字)とを比較して対応点の変位を抽出してその統計的情報を抽出し、その抽出結果に応じて標準の文字フォントを変更して、手書き風文字フォントを生成する手書き風文字フォント生成システムが記載されている。
 特許文献1に記載の手書き風文字フォント生成システムは、標準の文字フォントと、イメージ入力される文字フォントとの間の幾何学的変位、及び手書き文字の大きさを解析し、その統計的情報をそのユーザの個性を表す特徴量として登録し、標準の文字フォントをユーザの個性を表す特徴量で変形させることで、ユーザ固有の手書き風文字フォントを生成する。
 また、非特許文献1には、敵性的生成ネットワーク(GAN:Generative Adversarial Networks)を使用し、模倣したいスタイルの少数(例えば、5文字)のアルファベットから、それと類似したスタイルのアルファベット26文字を生成する技術が開示されている。
 GANは、GeneratorとDiscriminatorという2つのネットワークを備え、Generatorは訓練データ(模倣したいスタイルのアルファベット)と同じようなデータを生成し、Discriminatorはデータが訓練データ由来のものか、生成モデル由来のものかを識別する。そして、Discriminatorによりデータが訓練データ由来のものか、生成モデル由来のものかが識別不能になるように(正解率が50%になるように)、GeneratorとDiscriminatorの学習が行われ、最終的にGeneratorが、訓練データと同じようなデータを生成できるようにする。
特開2003-58142号公報
"Multi-Content GAN for Few-Shot Font Style Transfer" Samaneh Azadi, Matthew Fisher, Vladimir Kim, Zhaowen Wang, Eli Shechtman, Trevor Darrell UC Berkeley, Adobe Research インターネット〈URL:https://engineering.columbia.edu/press-releases/changxi-zheng-fontcode〉
 特許文献1に記載の手書き風文字フォント生成システムは、標準の文字フォントを、ユーザの個性を表す特徴量で変形させることで、ユーザ固有の手書き風文字フォントを生成するが、ユーザの個性を表す特徴量は、ユーザの手書きの文字フォントと対応する(同種の)標準の文字フォントとの対応点を求め、対応点の変位を抽出してユーザの個性を表す特徴量を求めるため、例えば、ユーザの手書きの「ひらがな」を使用して手書き風「カタカナ」の文字フォントを生成することはできない。
 また、非特許文献1に記載のGANを使用する場合、模倣したいスタイルのフォントが「アルファベット」の場合、模倣したいスタイルのフォントの特徴を有する「ひらがな」、「カタカナ」、その他の言語の一揃いのフォントセットを生成することができない。
 本発明はこのような事情に鑑みてなされたもので、スタイルを模倣したい少数の文字画像からその文字画像と同様のスタイルの一揃いのフォントセットを、任意の言語に対して生成することができるフォント作成装置、フォント作成方法及びフォント作成プログラムを提供することを目的とする。
 上記目的を達成するために本発明の一の態様に係るフォント作成装置は、第1フォントの一部の文字から構成される文字画像を取得する文字画像取得部と、取得した文字画像から第1フォントの第1特徴量を抽出する特徴量抽出部と、抽出した第1特徴量と基準の第2フォントの第2特徴量との間の変形パラメータを推定する推定部と、一揃いの基準のフォントセットの第3特徴量を、推定した変形パラメータに基づいて変形させることにより、一揃いの第2フォントセットの第4特徴量を生成する特徴量生成部と、生成された第2フォントセットの第4特徴量を画像に変換し、第2フォントセットを生成するフォント生成部と、を備える。
 本発明の一の態様によれば、文字画像取得部は、スタイルを模倣したい第1フォントの一部の文字から構成される文字画像を取得する。文字画像は、1文字からなる文字画像でもよいし、複数の文字からなる文字列画像でもよい。特徴量抽出部は、取得した文字画像から第1フォントの第1特徴量を抽出し、推定部は、抽出した第1特徴量と基準の第2フォントの第2特徴量との間の変形パラメータを推定する。基準の第2フォントは、例えば、コンピュータ用のフォントとして準備されている一般的なフォントである。
 特徴量生成部は、一揃いの基準のフォントセットの第3特徴量を、推定した変形パラメータに基づいて変形処理することにより、作成しようとする第2フォントセットの第4特徴量を生成する。フォント生成部は、生成された第2フォントセットの第4特徴量を画像に変換し、第2フォントセットを生成する。一揃いの基準のフォントセットは、任意の言語に対応するフォントセットでよく、これにより、任意の言語に対する一揃いの第2フォントセットを生成することができる。
 本発明の他の態様に係るフォント作成装置において、文字画像取得部は、第1フォントの一部の文字が撮像された画像を入力する画像入力部と、入力した画像から文字に対応する文字領域を切り出す切出部と、を備え、切り出した文字領域の画像を文字画像とすることが好ましい。
 本発明の更に他の態様に係るフォント作成装置において、特徴量抽出部は、特徴量の抽出を学習した第1学習済みモデルであり、第1学習済みモデルは、取得した文字画像を入力し、文字画像の第1特徴量を出力することが好ましい。
 本発明の更に他の態様に係るフォント作成装置において、特徴量抽出部は、文字画像の特徴部分を示すデザイナからの入力を受け付ける受付部を有し、受付部により受け付けた文字画像の特徴部分から第1特徴量を抽出することが好ましい。
 本発明の更に他の態様に係るフォント作成装置において、推定部は、第1特徴量と第2特徴量との特徴量空間での距離、又は類似度を計算して変形パラメータを推定することが好ましい。
 本発明の更に他の態様に係るフォント作成装置において、推定部及び特徴量生成部は、第2学習済みモデルであり、第2学習済みモデルは、第1特徴量と第2特徴量との特徴量空間での距離を最小化し、又は第1特徴量と第2特徴量との類似度を最大化するモデルであり、一揃いの基準のフォントセットを入力することで、第2フォントセットの第4特徴量を生成することが好ましい。
 本発明の更に他の態様に係るフォント作成装置において、フォント生成部は、第2フォントセットの第4特徴量を画像に変換する自己符号化器であることが好ましい。
 本発明の更に他の態様に係るフォント作成装置において、フォント生成部は、第2フォントセットとしてベクタデータを生成することが好ましい。
 本発明の更に他の態様に係るフォント作成装置において、フォント生成部は、第2フォントセットとしてラスタデータを生成することが好ましい。
 本発明の更に他の態様に係るフォント作成装置において、基準のフォントセットは、第1フォントとスタイルが異なる同じ種類のフォントセットであることが好ましい。例えば、第1フォントがアルファベットの場合、基準のフォントセットも同じ種類の「アルファベット」とすることができる。
 本発明の更に他の態様に係るフォント作成装置において、基準のフォントセットは、第1フォントとスタイルが異なる2種類以上のフォントセットを含むことが好ましい。例えば、第1フォントがアルファベットの場合、基準のフォントセットは、「アルファベット」とは種類が異なる「ひらがな」、「カタカナ」とすることができる。
 本発明の更に他の態様に係るフォント作成方法は、第1フォントの一部の文字から構成される文字画像を取得するステップと、取得した文字画像から第1フォントの第1特徴量を抽出するステップと、抽出した第1特徴量と基準の第2フォントの第2特徴量との間の変形パラメータを推定するステップと、一揃いの基準のフォントセットの第3特徴量を、推定した変形パラメータに基づいて変形させることにより、一揃いの第2フォントセットの第4特徴量を生成するステップと、生成された第2フォントセットの第4特徴量を画像に変換し、第2フォントセットを生成するステップと、を含む。
 本発明の更に他の態様に係るフォント作成プログラムは、第1フォントの一部の文字から構成される文字画像を取得する機能と、取得した文字画像から第1フォントの第1特徴量を抽出する機能と、抽出した第1特徴量と基準の第2フォントの第2特徴量との間の変形パラメータを推定する機能と、一揃いの基準のフォントセットの第3特徴量を、推定した変形パラメータに基づいて変形させることにより、第2フォントセットの第4特徴量を生成する機能と、生成された第2フォントセットの第4特徴量を画像に変換し、一揃いの第2フォントセットを生成する機能と、をコンピュータにより実現させる。
 本発明によれば、スタイルを模倣したい少数の文字画像からその文字画像と同様のスタイルの一揃いのフォントセットを、任意の言語に対して生成することができる。
図1は、本発明に係るフォント作成装置のハードウエア構成の一例を示すブロック図である。 図2は、文字画像取得部12の実施形態を示すブロック図である。 図3は、本発明に係るフォント作成装置10-1の第1実施形態を示すブロック図である。 図4は、特徴量空間内における文字画像32のスタイルを示す第1フォントの第1特徴量と、基準の第2フォント34の第2特徴量と、第1特徴量と第2特徴量との関係を示す変形パラメータとを示す図である。 図5は、特徴量空間内における基準のフォントセット36の第3特徴量が、変形パラメータにより第2フォントセット38の第4特徴量に変形処理される様子を示す図である。 図6は、本発明に係るフォント作成装置10-2の第2実施形態を示す要部ブロック図である。 図7は、本発明に係るフォント作成方法の実施形態を示すフローチャートである。
 以下、添付図面に従って本発明に係るフォント作成装置、フォント作成方法及びフォント作成プログラムの好ましい実施形態について説明する。
 [フォント作成装置のハードウエア構成]
 図1は、本発明に係るフォント作成装置のハードウエア構成の一例を示すブロック図である。
 図1に示すフォント作成装置10としては、パーソナルコンピュータ又はワークステーションを使用することができる。本例のフォント作成装置10は、主として文字画像取得部12と、フォントセットデータベース(以下、「フォントセットDB」(DB:database)という)14と、記憶部16と、操作部18と、CPU(Central Processing Unit)20と、RAM(Random Access Memory)22と、ROM(Read Only Memory)24と、表示部26とから構成されている。
 文字画像取得部12は、模倣したいスタイルのフォント(第1フォント)の一部の文字から構成される文字画像を取得する部分である。
 図2は、文字画像取得部12の実施形態を示すブロック図である。
 図2に示すように文字画像取得部12は、画像入力部12Aと、切出部12Bとから構成されている。
 画像入力部12Aは、模倣したいスタイルの文字画像を含む画像30を入力する。例えば、ユーザは、模倣したいスタイルの文字を有する看板、ポスター、あるいは雑誌等を見つけた場合、看板等をカメラにより撮像し、模倣したいスタイルの文字画像を含む画像30を取得する。尚、模倣したいスタイルの文字が雑誌等の紙媒体に印刷されている場合には、その紙媒体をスキャナで読み取る(撮像する)ことで、模倣したいスタイルの文字画像を含む画像30を取得することができる。また、文字画像は、1文字からなる文字画像でもよし、複数の文字からなる文字列画像でもよい。
 ユーザは、上記のようにして取得した画像30を画像入力部12Aに入力する。
 切出部12Bは、画像入力部12Aに入力された画像30から文字に対応する文字領域を切り出し、切り出した文字領域の画像(文字画像)32を記憶部16又はRAM22に出力し、ここに記憶させる。
 切出部12Bは、画像に含まれる文字領域を認識する機械学習装置により構成してもよいし、ユーザからの文字画像の抽出の支援を受けて文字画像を切り出すものでもよい。例えば、画像入力部12Aに入力した画像30を表示部26に表示させ、ユーザがポインティングデバイス等の操作部18を使用して、表示部26に表示された画像30に含まれる文字領域を指定することで、切出部12Bは文字画像32を切り出すことができる。
 フォントセットDB14は、基準のフォントセットを記憶する記憶部である。基準のフォントセットは、例えばIPAフォントが考えられる。IPAフォントは、日本語アウトラインフォントであり、独立行政法人情報処理推進機構(IPA:Information-technology Promotion Agency,Japanの略称)によって配布されているコンピュータ用のフォントセットであり、IPA明朝 (IPAMincho)、IPAP明朝 (IPAPMincho)、IPAゴシック(IPAGothic)、IPAPゴシック(IPAPGothic)がある。また、基準のフォントセットは、上記の例に限らず、基準となる一揃いのフォントセットであれば、任意の言語に対するフォントセットであってもよい。
 記憶部16は、ハードディスク装置、フラッシュメモリ等から構成される記憶部であり、オペレーティングシステム、本発明に係るフォント作成プログラムを含む各種のプログラムの他、パラメータ等のデータ、文字画像取得部12により取得された文字画像32、本装置により生成された一揃いのフォントセット(第2フォントセット)等を記憶する。
 操作部18は、コンピュータに有線接続又は無線接続されるキーボード及びマウス等が用いられ、フォント作成に当たって各種の操作入力を受け付ける。
 CPU20は、記憶部16又はROM24等に記憶された各種のプログラム(本発明に係るフォント作成プログラムを含む)を読み出し、各種の処理を実行する。RAM22は、CPU20の作業領域として使用され、読み出されたプログラムや各種のデータを一時的に記憶する記憶部として用いられる。
 表示部26は、コンピュータに接続可能な液晶モニタ等の各種モニタが用いられ、操作部18とともに、ユーザインターフェースの一部として使用される。
 上記構成のフォント作成装置10は、操作部18からの指示入力によりCPU20が、記憶部16又はROM24に記憶されているフォント作成プログラムを読み出し、フォント作成プログラムを実行することにより、後述するように模倣したいスタイルの一揃いのフォントセットを作成する。
 [フォント作成装置の第1実施形態]
 図3は、本発明に係るフォント作成装置10-1の第1実施形態を示すブロック図であり、図1に示したフォント作成装置10の主要な機能を示す機能ブロック図である。
 図3に示すフォント作成装置10-1は、主として特徴量抽出部40、推定部42、特徴量生成部44、及びフォント生成部46から構成されている。
 文字画像取得部12(図2)により取得された文字画像32は、特徴量抽出部40に加えられる。特徴量抽出部40は、入力する文字画像32から、文字画像32のスタイルを示すフォント(第1フォント)の特徴量(第1特徴量)を抽出する。
 特徴量抽出部40による特徴量の抽出は、文字画像32のスタイルを示す第1フォントに対する各特徴量をマージ(重み付き平均、機械学習による統合)する方法や、フォント全体から直接特徴量を計算する方法が考えられる。また、特徴量抽出部40による特徴量の抽出は、デザイナの知見に基づくスコアリングや機械学習、特に深層学習で計算することが考えられる。例えば、特徴量抽出部40は、デザイナが文字画像32を見たときに、その文字画像32の印象を決定付ける特徴部分の入力を受け付ける受付部を有し、受け付けた文字画像32の特徴部分から第1特徴量を抽出することが考えられる。深層学習で特徴量を計算する場合、特徴量の抽出を学習した学習済みモデル(第1学習済みモデル)を使用し、この第1学習済みモデルに文字画像32を入力することで、文字画像32の第1特徴量を抽出する。
 特徴量抽出部40により抽出された文字画像32のスタイルを示す第1フォントの第1特徴量は、推定部42に出力される。
 推定部42は、文字画像32のスタイルを示す第1フォントの第1特徴量と、基準のフォント(第2フォント)34の特徴量(第2特徴量)との間の変形パラメータを推定する部分である。
 基準の第2フォント34は、フォントセットDB14から取得することができる。ここで、基準の第2フォント34は、フォントセットDB14に保存されている一揃いのフォントセットのうちの一部のフォントでもよいし、全てのフォントでもよい。また、第1フォントが、例えばアルファベットの場合、基準の第2フォントは、アルファベット(即ち、同じ種類のフォント)でもよいし、異なる2種類以上のフォント(例えば、「ひらがな」、「カタカナ」、「漢字」等)でもよい。
 推定部42は、文字画像32のスタイルを示す第1フォントの第1特徴量と、基準の第2フォント34の第2特徴量との間の変形パラメータを推定する。この推定した変形パラメータは、基準の第2フォント34の第2特徴量を、文字画像32のスタイルを示す第1フォントの第1特徴量に変換するためのパラメータである。
 図4は、特徴量空間内における文字画像32のスタイルを示す第1フォント(「入力AI」)の第1特徴量と、基準の第2フォント34(「基準AI」)の第2特徴量と、第1特徴量と第2特徴量との関係を示す変形パラメータとを示している。
 推定部42は、第1特徴量と第2特徴量との特徴量空間での距離、又は類似度を計算することで変形パラメータを推定することができ、あるいは後述するように機械学習により変形パラメータを推定することができる。
 また、推定部42は、第2フォント34を入力し、特徴量抽出部40と同様に第2フォント34の第2特徴量を抽出するが、フォントセットDB14、又はその他の記憶部に予め第2フォントの第2特徴量を記憶させておき、記憶された第2フォントの第2特徴量を入力してもよい。
 推定部42により推定された変形パラメータは、特徴量生成部44に加えられる。
 一方、フォントセットDB14から一揃いの基準のフォントセット36が読み出され、基準のフォントセット36を構成する複数のフォントが1文字ずつ特徴量生成部44に加えられる。フォントセットDB14に記憶されている複数の種類の基準のフォントセット(例えば、アルファベット、ひらがな、カタナカ、漢字等のフォントセット)のうちのいずれの基準のフォントセットを特徴量生成部44に入力させるかは、ユーザが操作部18により指定することが可能である。
 特徴量生成部44は、基準のフォントセット36の特徴量(第3特徴量)を、推定した変形パラメータに基づいて変形処理することにより、第2フォントセット(生成するフォントセット)の第4特徴量を生成する。
 図5は、特徴量空間内における基準のフォントセット36の第3特徴量が、変形パラメータにより第2フォントセット38の第4特徴量に変形処理される様子を示す図であり、図5では、一揃いの基準のフォントセット36として、「ひらがな」の「あ」~「ん」が選択されている場合に関して示している。
 「ひらがな」の基準のフォントセット36の第3特徴量は、変形パラメータに基づいて特徴量生成部44により第4特徴量に変形処理される。即ち、第3特徴量から変形処理された第4特徴量は、模倣したい文字画像32のスタイルを示す第1フォントの第1特徴量と同様の特徴量になる。
 尚、特徴量生成部44は、基準のフォントセット36を入力し、特徴量抽出部40と同様に基準のフォントセット36の第3特徴量を抽出するが、フォントセットDB14、又はその他の記憶部に予め基準のフォントセットの第3特徴量を記憶させておき、記憶された基準のフォントセットの第3特徴量を入力してもよい。
 特徴量生成部44により変形処理された第2フォントセットの第4特徴量は、フォント生成部46に出力される。
 フォント生成部46は、特徴量空間における第2フォントセットの第4特徴量を画像空間における画像に変換し、模倣したい文字画像32のスタイルを有する一揃いの第2フォントセットを生成する。
 フォント生成部46は、一揃いの第2フォントセットとして、文字画像を画素の集合として表現したラスタデータを生成するが、文字画像を点、線及び面で表現したベクタデータを生成するものでもよい。
 フォント生成部46により生成された一揃いの第2フォントセットは、記憶部16に記憶される。これにより、ユーザは、記憶部16に記憶された、模倣したい文字画像32のスタイルを有する一揃いの第2フォントセットを使用することができる。
 また、図5に示した例では、「ひらがな」の一揃いの基準のフォントセットを入力したが、これに限らず、任意の言語の基準のフォントセットを入力することができ、例えば、「アルファベット」の一揃いの基準のフォントセットを入力すると、模倣したい文字画像32のスタイルを有する一揃いの「アルファベット」の第2フォントセットを生成することができる。
 [フォント作成装置の第2実施形態]
 図6は、本発明に係るフォント作成装置10-2の第2実施形態を示す要部ブロック図であり、図1に示したフォント作成装置10の主要な機能を示す機能ブロック図である。
 図6に示すフォント作成装置10-2は、主として特徴量抽出部40及び学習装置50から構成されている。
 図6において、特徴量抽出部40は、図3に示した特徴量抽出部40と同様に文字画像32を入力し、その文字画像32の特徴量を抽出して学習装置50(の損失値算出部54)に出力する。
 学習装置50は、文字画像32と基準の第2フォントとを学習データとして使用して学習することにより、図3に示した推定部42及び特徴量生成部44に対応する学習済みモデル(第2学習済みモデル)を生成する。本例では、深層学習モデルの一つである畳み込みニューラルネットワーク(CNN:Convolution Neural Network)52を構築する。
 図6に示す学習装置50は、主としてCNN52と、損失値算出部54と、パラメータ制御部56とから構成される。
 CNN52は、複数のレイヤー構造を有し、複数の重みパラメータを保持している。CNN52は、重みパラメータが初期値から最適値に更新されることで、未学習モデルから学習済みモデルに変化しうる。CNN52の重みパラメータの初期値は、例えば、画像の分類等を行う画像系の学習済みモデルの重みパラメータを適用することができる。これによれば、CNN52は事前学習されたものとなり、僅かな学習データによる学習(ファインチューニング)により所望の学習モデルとなる。
 このCNN52は、入力層52Aと、畳み込み層とプーリング層から構成された複数セットを有する中間層52Bと、出力層52Cとを備え、各層は複数の「ノード」が「エッジ」で結ばれる構造となっている。
 入力層52Aには、学習対象である第2フォント34が入力される。
 中間層52Bは、畳み込み層とプーリング層とを1セットとする複数セットを有し、入力層52Aから入力した第2フォント34(画像)から特徴を抽出する部分である。畳み込み層は、前の層で近くにあるノードにフィルタ処理し(フィルタを使用した畳み込み演算を行い)、「特徴マップ」を取得する。プーリング層は、畳み込み層から出力された特徴マップを縮小して新たな特徴マップとする。「畳み込み層」は、画像からのエッジ抽出等の特徴抽出の役割を担い、「プーリング層」は抽出された特徴が、平行移動などによる影響を受けないようにロバスト性を与える役割を担う。尚、中間層52Bには、畳み込み層とプーリング層とを1セットとする場合に限らず、畳み込み層が連続する場合や正規化層も含まれる。
 出力層52Cは、CNN52の認識結果(本例では、フォントの特徴を示す特徴マップ)を出力する部分である。
 損失値算出部54は、CNN52の出力層52Cから出力される認識結果(特徴マップ)と、模倣したい文字画像32のスタイルを示す第1フォントの第1特徴量(訓練データ)とを取得し、両者間の損失値を算出する。損失値の算出方法は、例えばソフトマックスクロスエントロピー、シグモイドなどが考えられる。
 パラメータ制御部56は、損失値算出部54により算出された損失値を元に、誤差逆伝播法により、訓練データ(第1特徴量)とCNN52の出力(第2特徴量)との特徴量空間での距離を最小化させ、又は類似度を最大化させるべ、CNN52の重みパラメータを調整する。
 このパラメータの調整処理を繰り返し行い、損失値算出部54により算出される損失値が収束するまで繰り返し学習を行う。
 このようにして重みパラメータが最適化された学習済みのCNN52は、第2フォント34の第2特徴量を抽出し、文字画像32のスタイルを示す第1フォントの第1特徴量と第2フォント34の第2特徴量との間の変形パラメータとしての重みパラメータを有する。
 そして、学習済みのCNN52の入力画像として、基準のフォントセット36を入力すると、学習済みのCNN52は、基準のフォントセットの第3特徴量を、模倣したい文字画像32のスタイルを示す第1フォントの第1特徴量と同様な第4特徴量(特徴マップ)を出力する。この学習済みのCNN52は、図3に示した推定部42及び特徴量生成部44として機能する。
 学習済みのCNN52から出力される第2フォントセットの第4特徴量(特徴マップ)は、フォント生成部46(図3)により特徴量空間における第2フォントセットの第4特徴量が画像空間に変換された画像(文字画像)になる。フォント生成部46は、画像の特徴量(第2フォントセットの第4特徴量)を画像に変換する自己符号化器にて構成することができる。
 [フォント作成方法]
 図7は、本発明に係るフォント作成方法の実施形態を示すフローチャートであり、図3に示した第1実施形態のフォント作成装置10-1の各部の処理手順に関して示している。
 図7において、まず、文字画像取得部12(図2)により模倣したいスタイルの文字画像32を取得する(ステップS10)。
 特徴量抽出部40は、ステップS10で取得した文字画像32から、文字画像32のスタイルを示す第1フォントの第1特徴量を抽出する(ステップS12)。
 続いて、推定部42により、文字画像32のスタイルを示す第1フォントの第1特徴量と、基準のフォント(第2フォント)34の第2特徴量との間の変形パラメータを推定する(ステップS14)。
 特徴量生成部44は、フォントセットDB14から読み出された一揃いの基準のフォントセット36の第3特徴量を、ステップS14で推定した変形パラメータに基づいて変形処理し、第2フォントセットの第4特徴量を生成する(ステップS16)。
 フォント生成部46は、ステップS16で生成された特徴量空間における第2フォントセットの第4特徴量を画像空間における画像に変換し、模倣したい文字画像32のスタイルを有する一揃いの第2フォントセットを生成する(ステップS18)。
 [その他]
 本実施形態のフォント作成装置10の各種制御を実行するハードウエア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の制御部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。
 1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の制御部を1つのプロセッサで構成してもよい。複数の制御部を1つのプロセッサで構成する例としては、第1に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の制御部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の制御部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の制御部は、ハードウエア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
 また、これらの各種のプロセッサのハードウエア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
 また、本発明は、コンピュータにインストールされることにより、本発明に係るフォント作成装置として機能させるフォント作成プログラム、及びこのフォント作成プログラムが記録された記録媒体を含む。
 更に、本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10、10-1、10-2 フォント作成装置
12 文字画像取得部
12A 画像入力部
12B 切出部
14 フォントセットDB
16 記憶部
18 操作部
20 CPU
22 RAM
24 ROM
26 表示部
30 画像
32 文字画像
34 第2フォント
36 基準のフォントセット
38 第2フォントセット
40 特徴量抽出部
42 推定部
44 特徴量生成部
46 フォント生成部
50 学習装置
52 畳み込みニューラルネットワーク(CNN)
52A 入力層
52B 中間層
52C 出力層
54 損失値算出部
56 パラメータ制御部
S10~S18 ステップ

Claims (14)

  1.  第1フォントの一部の文字から構成される文字画像を取得する文字画像取得部と、
     前記取得した文字画像から前記第1フォントの第1特徴量を抽出する特徴量抽出部と、
     前記抽出した第1特徴量と基準の第2フォントの第2特徴量との間の変形パラメータを推定する推定部と、
     一揃いの基準のフォントセットの第3特徴量を、前記推定した変形パラメータに基づいて変形させることにより、一揃いの第2フォントセットの第4特徴量を生成する特徴量生成部と、
     前記生成された前記第2フォントセットの第4特徴量を画像に変換し、前記第2フォントセットを生成するフォント生成部と、
     を備えたフォント作成装置。
  2.  前記文字画像取得部は、前記第1フォントの一部の文字が撮像された画像を入力する画像入力部と、前記入力した画像から前記文字に対応する文字領域を切り出す切出部と、を備え、前記切り出した文字領域の画像を前記文字画像とする請求項1に記載のフォント作成装置。
  3.  前記特徴量抽出部は、特徴量の抽出を学習した第1学習済みモデルであり、前記第1学習済みモデルは、前記取得した文字画像を入力し、前記文字画像の第1特徴量を出力する請求項1又は2に記載のフォント作成装置。
  4.  前記特徴量抽出部は、前記文字画像の特徴部分を示すデザイナからの入力を受け付ける受付部を有し、前記受付部により受け付けた前記文字画像の特徴部分から前記第1特徴量を抽出する請求項1又は2に記載のフォント作成装置。
  5.  前記推定部は、前記第1特徴量と前記第2特徴量との特徴量空間での距離、又は類似度を計算して前記変形パラメータを推定する請求項1から4のいずれか1項に記載のフォント作成装置。
  6.  前記推定部及び前記特徴量生成部は、第2学習済みモデルであり、
     前記第2学習済みモデルは、前記第1特徴量と前記第2特徴量との特徴量空間での距離を最小化し、又は前記第1特徴量と前記第2特徴量との類似度を最大化するモデルであり、前記一揃いの基準のフォントセットを入力することで、前記第2フォントセットの第4特徴量を生成する請求項1から4のいずれか1項に記載のフォント作成装置。
  7.  前記フォント生成部は、前記第2フォントセットの第4特徴量を画像に変換する自己符号化器である請求項1から6のいずれか1項に記載のフォント作成装置。
  8.  前記フォント生成部は、前記第2フォントセットとしてベクタデータを生成する請求項1から7のいずれか1項に記載のフォント作成装置。
  9.  前記フォント生成部は、前記第2フォントセットとしてラスタデータを生成する請求項1から7のいずれか1項に記載のフォント作成装置。
  10.  前記基準のフォントセットは、前記第1フォントとスタイルが異なる同じ種類のフォントセットである請求項1から9のいずれか1項に記載のフォント作成装置。
  11.  前記基準のフォントセットは、前記第1フォントとスタイルが異なる2種類以上のフォントセットを含む請求項1から10のいずれか1項に記載のフォント作成装置。
  12.  第1フォントの一部の文字から構成される文字画像を取得するステップと、
     前記取得した文字画像から前記第1フォントの第1特徴量を抽出するステップと、
     前記抽出した第1特徴量と基準の第2フォントの第2特徴量との間の変形パラメータを推定するステップと、
     一揃いの基準のフォントセットの第3特徴量を、前記推定した変形パラメータに基づいて変形させることにより、一揃いの第2フォントセットの第4特徴量を生成するステップと、
     前記生成された前記第2フォントセットの第4特徴量を画像に変換し、前記第2フォントセットを生成するステップと、
     を含むフォント作成方法。
  13.  第1フォントの一部の文字から構成される文字画像を取得する機能と、
     前記取得した文字画像から前記第1フォントの第1特徴量を抽出する機能と、
     前記抽出した第1特徴量と基準の第2フォントの第2特徴量との間の変形パラメータを推定する機能と、
     一揃いの基準のフォントセットの第3特徴量を、前記推定した変形パラメータに基づいて変形させることにより、一揃いの第2フォントセットの第4特徴量を生成する機能と、
     前記生成された前記第2フォントセットの第4特徴量を画像に変換し、前記第2フォントセットを生成する機能と、
     をコンピュータにより実現させるフォント作成プログラム。
  14.  非一時的かつコンピュータ読取可能な記録媒体であって、前記記録媒体に格納された指令がコンピュータによって読み取られた場合に、
     第1フォントの一部の文字から構成される文字画像を取得する機能と、
     前記取得した文字画像から前記第1フォントの第1特徴量を抽出する機能と、
     前記抽出した第1特徴量と基準の第2フォントの第2特徴量との間の変形パラメータを推定する機能と、
     一揃いの基準のフォントセットの第3特徴量を、前記推定した変形パラメータに基づいて変形させることにより、一揃いの第2フォントセットの第4特徴量を生成する機能と、
     前記生成された前記第2フォントセットの第4特徴量を画像に変換し、前記第2フォントセットを生成する機能と、
     を含むフォント作成機能をコンピュータに実行させる記録媒体。
PCT/JP2019/035056 2018-09-20 2019-09-05 フォント作成装置、フォント作成方法及びフォント作成プログラム WO2020059527A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020548320A JP7482783B2 (ja) 2018-09-20 2019-09-05 フォント作成装置、フォント作成方法及びフォント作成プログラム
US17/198,499 US11600031B2 (en) 2018-09-20 2021-03-11 Font creation apparatus, font creation method, and font creation program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-176318 2018-09-20
JP2018176318 2018-09-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/198,499 Continuation US11600031B2 (en) 2018-09-20 2021-03-11 Font creation apparatus, font creation method, and font creation program

Publications (1)

Publication Number Publication Date
WO2020059527A1 true WO2020059527A1 (ja) 2020-03-26

Family

ID=69887290

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/035056 WO2020059527A1 (ja) 2018-09-20 2019-09-05 フォント作成装置、フォント作成方法及びフォント作成プログラム

Country Status (3)

Country Link
US (1) US11600031B2 (ja)
JP (1) JP7482783B2 (ja)
WO (1) WO2020059527A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022050666A (ja) * 2021-08-17 2022-03-30 北京百度網訊科技有限公司 サイクル生成ネットワークモデルのトレーニング方法、フォントライブラリの確立方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP2023039888A (ja) * 2021-09-09 2023-03-22 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド モデルトレーニング及び字庫作成の方法、装置、機器、及び記憶媒体
KR20230082926A (ko) * 2021-12-02 2023-06-09 숭실대학교산학협력단 폰트 생성 방법 및 장치
KR20230094022A (ko) * 2021-12-20 2023-06-27 단국대학교 산학협력단 Nft 기반 신규 폰트 파일을 생성하는 방법, 장치, 및 컴퓨터 프로그램

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7208771B2 (ja) * 2018-11-22 2023-01-19 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム、並びに、画像形成システム
JP2020170309A (ja) * 2019-04-02 2020-10-15 キヤノン株式会社 画像処理システム、画像処理装置、画像処理方法、及びプログラム
US20220383030A1 (en) * 2021-05-25 2022-12-01 3Dfamily Technology Co.,Ltd. Using few shot learning on recognition system for character image in industrial processes
US11886793B2 (en) * 2021-09-03 2024-01-30 Adobe Inc. Textual design agent
CN114386370A (zh) * 2022-01-14 2022-04-22 北京有竹居网络技术有限公司 一种字体生成方法、装置及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265429A (ja) * 1992-03-19 1993-10-15 Fujitsu Ltd 文字フォント作成処理方式
JPH06230766A (ja) * 1993-01-29 1994-08-19 Hitachi Ltd フォント作成システム
JPH0721158A (ja) * 1993-06-22 1995-01-24 Sony Corp ワードプロセッサ装置
JP2001222272A (ja) * 2000-02-10 2001-08-17 Nippon Telegr & Teleph Corp <Ntt> 変形文字パターン発生方法、変形文字パターン発生装置、及び変形文字パターン発生プログラムを記録した記録媒体
JP2003058142A (ja) * 2001-06-04 2003-02-28 Keio Gijuku 手書き風文字フォント生成システム、記録媒体及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5265429B2 (ja) 2009-03-26 2013-08-14 Hoya株式会社 ガラス基板の製造方法、及び磁気記録媒体の製造方法
JP2014186395A (ja) * 2013-03-21 2014-10-02 Toshiba Corp 文書作成支援装置、方法およびプログラム
US9715623B2 (en) * 2015-06-10 2017-07-25 Lenovo (Singapore) Pte. Ltd. Reduced document stroke storage
JP6230766B1 (ja) 2016-06-13 2017-11-15 オリンパス株式会社 挿入機器、装着具及び駆動力伝達ユニット
US10878298B2 (en) * 2019-03-06 2020-12-29 Adobe Inc. Tag-based font recognition by utilizing an implicit font classification attention neural network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265429A (ja) * 1992-03-19 1993-10-15 Fujitsu Ltd 文字フォント作成処理方式
JPH06230766A (ja) * 1993-01-29 1994-08-19 Hitachi Ltd フォント作成システム
JPH0721158A (ja) * 1993-06-22 1995-01-24 Sony Corp ワードプロセッサ装置
JP2001222272A (ja) * 2000-02-10 2001-08-17 Nippon Telegr & Teleph Corp <Ntt> 変形文字パターン発生方法、変形文字パターン発生装置、及び変形文字パターン発生プログラムを記録した記録媒体
JP2003058142A (ja) * 2001-06-04 2003-02-28 Keio Gijuku 手書き風文字フォント生成システム、記録媒体及びプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022050666A (ja) * 2021-08-17 2022-03-30 北京百度網訊科技有限公司 サイクル生成ネットワークモデルのトレーニング方法、フォントライブラリの確立方法、装置、電子機器、記憶媒体およびコンピュータプログラム
JP2023039888A (ja) * 2021-09-09 2023-03-22 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド モデルトレーニング及び字庫作成の方法、装置、機器、及び記憶媒体
KR20230082926A (ko) * 2021-12-02 2023-06-09 숭실대학교산학협력단 폰트 생성 방법 및 장치
KR102623293B1 (ko) 2021-12-02 2024-01-10 숭실대학교산학협력단 폰트 생성 방법 및 장치
KR20230094022A (ko) * 2021-12-20 2023-06-27 단국대학교 산학협력단 Nft 기반 신규 폰트 파일을 생성하는 방법, 장치, 및 컴퓨터 프로그램
KR102588679B1 (ko) 2021-12-20 2023-10-11 단국대학교 산학협력단 Nft 기반 신규 폰트 파일을 생성하는 방법, 장치, 및 컴퓨터 프로그램

Also Published As

Publication number Publication date
JP7482783B2 (ja) 2024-05-14
US20210201548A1 (en) 2021-07-01
US11600031B2 (en) 2023-03-07
JPWO2020059527A1 (ja) 2021-08-30

Similar Documents

Publication Publication Date Title
WO2020059527A1 (ja) フォント作成装置、フォント作成方法及びフォント作成プログラム
US10192163B2 (en) Audio processing method and apparatus based on artificial intelligence
CN109196526B (zh) 用于生成多模态数字图像的方法和系统
JP2020524861A (ja) セマンティックセグメンテーションモデルの訓練方法および装置、電子機器、ならびに記憶媒体
KR102124466B1 (ko) 웹툰 제작을 위한 콘티를 생성하는 장치 및 방법
CN110570481A (zh) 基于风格迁移的书法字库自动修复方法及系统
KR20210077655A (ko) 이미지 처리 방법, 장치, 전자 기기 및 저장 매체
KR102121654B1 (ko) 딥러닝 기반 제스처 자동 인식 방법 및 시스템
CN110719525A (zh) 弹幕表情包的生成方法、电子设备和可读存储介质
WO2021081562A2 (en) Multi-head text recognition model for multi-lingual optical character recognition
JP2023541752A (ja) ニューラルネットワークモデルのトレーニング方法、画像検索方法、機器及び媒体
CN113378580A (zh) 文档版面分析方法、模型训练方法、装置和设备
JP7264929B2 (ja) 背景なし画像の生成方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
CN111108508B (zh) 脸部情感识别方法、智能装置和计算机可读存储介质
JP2022058696A (ja) 敵対的ネットワークモデルのトレーニング方法、文字ライブラリの作成方法、並びにそれらの装置、電子機器、記憶媒体並びにコンピュータプログラム
CN113516136A (zh) 一种手写图像生成方法、模型训练方法、装置及设备
KR20220034080A (ko) 순환 생성 네트워크 모델의 훈련 방법, 글자 라이브러리의 구축 방법 및 장치, 전자 기기, 저장 매체, 컴퓨터 프로그램
JP2018032340A (ja) 属性推定装置、属性推定方法および属性推定プログラム
CN111598087A (zh) 不规则文字的识别方法、装置、计算机设备及存储介质
CN110211032B (zh) 汉字字符的生成方法、装置及可读存储介质
CN108090044B (zh) 联系方式的识别方法和装置
CN112101204B (zh) 生成式对抗网络的训练方法、图像处理方法、装置和设备
KR20190008168A (ko) 인공지능 딥러닝 기술을 이용하여 예쁜글씨를 폰트화하는 과정에서 초/중/종성을 분리하고 이를 이용하여 템프리트에서 얻지 못하는 한글글자를 구성하는 기술
Kumar et al. Performance analysis of KNN, SVM and ANN techniques for gesture recognition system
CN116385829B (zh) 姿态描述信息生成方法、模型的训练方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19861924

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020548320

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19861924

Country of ref document: EP

Kind code of ref document: A1