JP7282932B2 - フォント生成モデルトレーニング方法、字庫作成方法、装置及び機器 - Google Patents
フォント生成モデルトレーニング方法、字庫作成方法、装置及び機器 Download PDFInfo
- Publication number
- JP7282932B2 JP7282932B2 JP2022007170A JP2022007170A JP7282932B2 JP 7282932 B2 JP7282932 B2 JP 7282932B2 JP 2022007170 A JP2022007170 A JP 2022007170A JP 2022007170 A JP2022007170 A JP 2022007170A JP 7282932 B2 JP7282932 B2 JP 7282932B2
- Authority
- JP
- Japan
- Prior art keywords
- character
- font
- feature
- loss
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012549 training Methods 0.000 title claims description 101
- 238000000034 method Methods 0.000 title claims description 87
- 238000013145 classification model Methods 0.000 claims description 118
- 239000013598 vector Substances 0.000 claims description 32
- 238000003860 storage Methods 0.000 claims description 15
- 238000004590 computer program Methods 0.000 claims description 8
- 125000004122 cyclic group Chemical group 0.000 claims description 8
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 57
- 230000000694 effects Effects 0.000 description 40
- 230000008569 process Effects 0.000 description 13
- 238000004891 communication Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000012800 visualization Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 230000000052 comparative effect Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 108090000623 proteins and genes Proteins 0.000 description 2
- 238000013256 Gubra-Amylin NASH model Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/21—Design, administration or maintenance of databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/103—Formatting, i.e. changing of presentation of documents
- G06F40/109—Font handling; Temporal or kinetic typography
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/20—Drawing from basic elements, e.g. lines or circles
- G06T11/203—Drawing of straight lines or curves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/60—Editing figures and text; Combining figures or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/24—Character recognition characterised by the processing or recognition method
- G06V30/242—Division of the character sequences into groups prior to recognition; Selection of dictionaries
- G06V30/244—Division of the character sequences into groups prior to recognition; Selection of dictionaries using graphical properties, e.g. alphabet type or font
- G06V30/245—Font recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/28—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
- G06V30/287—Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of Kanji, Hiragana or Katakana characters
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Biodiversity & Conservation Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Controls And Circuits For Display Device (AREA)
- Character Discrimination (AREA)
- Document Processing Apparatus (AREA)
- Image Analysis (AREA)
Description
ソースドメインサンプル字をフォント生成モデルに入力し、第1ターゲットドメイン生成字を得ることと、
前記第1ターゲットドメイン生成字及び予め設定されたターゲットドメインサンプル字を文字分類モデルに入力し、前記フォント生成モデルの第1特徴ロスを得ることと、
前記第1ターゲットドメイン生成字及び前記ターゲットドメインサンプル字をフォント分類モデルに入力し、前記フォント生成モデルの第2特徴ロスを得ることと、
前記第1特徴ロス及び/又は前記第2特徴ロスによりターゲット特徴ロスを確定することと、
前記ターゲット特徴ロスにより前記フォント生成モデルのモデルパラメータを更新することと、
を含む、フォント生成モデルトレーニング方法を提供する。
ターゲットソースドメイン入力字をフォント生成モデルに入力し、ターゲットドメイン新字を得ることと、
前記ターゲットドメイン新字に基づいて、字庫を作成することと、を含み、
前記フォント生成モデルは第1態様に記載のフォント生成モデルトレーニング方法によりトレーニングして得られる、
字庫作成方法を提供する。
ソースドメインサンプル字をフォント生成モデルに入力し、第1ターゲットドメイン生成字を得ることに用いられる第1ターゲットドメイン生成字取得モジュールと、
前記第1ターゲットドメイン生成字及び予め設定されたターゲットドメインサンプル字を文字分類モデルに入力し、前記フォント生成モデルの第1特徴ロスを得ることに用いられる第1特徴ロス取得モジュールと、
前記第1ターゲットドメイン生成字及び前記ターゲットドメインサンプル字をフォント分類モデルに入力し、前記フォント生成モデルの第2特徴ロスを得ることに用いられる第2特徴ロス取得モジュールと、
前記第1特徴ロス及び/又は前記第2特徴ロスによりターゲット特徴ロスを確定することに用いられるターゲット特徴ロス取得モジュールと、
前記ターゲット特徴ロスにより前記フォント生成モデルのモデルパラメータを更新することに用いられる第1モデルパラメータ更新モジュールと、
を含む、フォント生成モデルトレーニング装置を提供する。
ターゲットソースドメイン入力字をフォント生成モデルに入力し、ターゲットドメイン新字を得ることに用いられるターゲットドメイン新字取得モジュールと、
前記ターゲットドメイン新字に基づいて、字庫を作成することに用いられる字庫作成モジュールと、を含み
前記フォント生成モデルは、第1態様に記載のフォント生成モデルトレーニング装置によりトレーニングして得られる、
字庫作成装置を提供する。
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリと、を含み、
前記メモリには前記少なくとも1つのプロセッサに実行可能である指令が記憶され、前記指令が前記少なくとも1つのプロセッサに実行されることにより、前記少なくとも1つのプロセッサに第1態様の実施例によるフォント生成モデルトレーニング方法又は第2態様の実施例による字庫作成方法を実行可能である、
電子機器を提供する。
コンピュータ指令が記憶される非一時的なコンピュータ可読記憶媒体であって、
前記コンピュータ指令は、前記コンピュータに第1態様の実施例によるフォント生成モデルトレーニング方法又は第2方面の実施例による字庫作成方法を実行させることに用いられる、
コンピュータ可読記憶媒体をさらに提供する。
プロセッサに実行されると、第1態様の実施例によるフォント生成モデルトレーニング方法又は第2方面の実施例による字庫作成方法を実現する、
コンピュータプログラムをさらに提供する。
LA2B=(Y*-1)2+L1A2B (1)
LB2A=(X*-1)2+L1B2A (2)
LG=(Y*-1)2+L1A2B+(X*-1)2+L1B2A (3)
LA=(X-1)2+(X*-0)2 (4)
LB=(Y-1)2+(Y*-0)2 (5)
(外1)
を含む画像であり、即ち、(1)である画像の
(外2)
という字はユーザのリアルな手書き字である。(2)である画像は第1特徴ロスによりフォント生成モデルを拘束せずに生成された手書き字の
(外3)
を含む画像である。(3)である画像は第1特徴ロスによりフォント生成モデルを拘束して生成された手書き字の
(外4)
を含む画像である。(2)である画像における
(外5)
という字に比べて、(3)であり画像にける
(外6)
という字はリアルなユーザが手書いた
(外7)
という字(即ち、(1)である画像における
(外8)
という字)のより多い特徴を学習し、リアルなユーザが手書いた
(外9)
という字により類似する。
第1ターゲットドメイン生成字取得モジュール1310は、ソースドメインサンプル字をフォント生成モデルに入力し、第1ターゲットドメイン生成字を得ることに用いられ、
第1特徴ロス取得モジュール1320は、前記第1ターゲットドメイン生成字及び予め設定されたターゲットドメインサンプル字を文字分類モデルに入力し、前記フォント生成モデルの第1特徴ロスを得ることに用いられ、
第2特徴ロス取得モジュール1330は、前記第1ターゲットドメイン生成字及び前記ターゲットドメインサンプル字をフォント分類モデルに入力し、前記フォント生成モデルの第2特徴ロスを得ることに用いられ、
ターゲット特徴ロス取得モジュール1340は、前記第1特徴ロス及び/又は前記第2特徴ロスによりターゲット特徴ロスを確定することに用いられ、
第1モデルパラメータ更新モジュール1350は、前記ターゲット特徴ロスにより前記フォント生成モデルのモデルパラメータを更新することに用いられる。
ターゲットドメイン新字取得モジュール1410は、ソースドメイン入力字をフォント生成モデルに入力し、ターゲットドメイン新字を得ることに用いられ、
字庫作成モジュール1420は、前記ターゲットドメイン新字に基づいて、字庫を作成することに用いられ、
前記フォント生成モデルは本開示のいずれか1つの実施例に記載のフォント生成モデルトレーニング装置によりトレーニングして得られる。
Claims (17)
- ソースドメインサンプル字をフォント生成モデルに入力し、第1ターゲットドメイン生成字を得ることと、
前記第1ターゲットドメイン生成字及び予め設定されたターゲットドメインサンプル字を文字分類モデルに入力し、前記フォント生成モデルの第1特徴ロスを得ることと、
前記第1ターゲットドメイン生成字及び前記ターゲットドメインサンプル字をフォント分類モデルに入力し、前記フォント生成モデルの第2特徴ロスを得ることと、
前記第1特徴ロス及び/又は前記第2特徴ロスによりターゲット特徴ロスを確定することと、
前記ターゲット特徴ロスにより前記フォント生成モデルのモデルパラメータを更新することと、
を含む、フォント生成モデルトレーニング方法。 - 前記文字分類モデルは複数の特徴層を含み、
前記第1ターゲットドメイン生成字及び予め設定されたターゲットドメインサンプル字を文字分類モデルに入力し、前記フォント生成モデルの第1特徴ロスを得ることは、
前記第1ターゲットドメイン生成字を前記文字分類モデルに入力し、前記文字分類モデルの各特徴層が出力した第1生成字特徴マップを得ることと、
前記ターゲットドメインサンプル字を前記文字分類モデルに入力し、前記文字分類モデルの各特徴層が出力した第1サンプル字特徴マップを得ることと、
ターゲット特徴層の第1生成字特徴マップと第1サンプル字特徴マップとの間の差異を算出し、前記第1特徴ロスを得ることと、
を含む、請求項1に記載のフォント生成モデルトレーニング方法。 - ターゲット特徴層の第1生成字特徴マップと第1サンプル字特徴マップとの間の差異を算出することは、
前記ターゲット特徴層の第1生成字特徴マップと第1サンプル字特徴マップとの間の画素差異を算出し、前記ターゲット特徴層の第1画素ロスを得ることと、
前記ターゲット特徴層の第1画素ロスにより前記第1特徴ロスを算出することと、
を含む、請求項2に記載のフォント生成モデルトレーニング方法。 - 前記ターゲット特徴層の第1生成字特徴マップと第1サンプル字特徴マップとの間の画素差異を算出することは、
前記第1生成字特徴マップにおける各位置の画素点の画素値と前記第1サンプル字特徴マップの対応する位置の画素点の画素値との間の差異値の絶対値を算出し、各位置の画素点の差異を得ることと、
複数の位置の画素点の差異により、前記第1生成字特徴マップと第1サンプル字特徴マップとの間の画素差異を確定することと、
を含む、請求項3に記載のフォント生成モデルトレーニング方法。 - 前記フォント分類モデルは複数の特徴層を含み、
前記第1ターゲットドメイン生成字及び前記ターゲットドメインサンプル字をフォント分類モデルに入力し、前記フォント生成モデルの第2特徴ロスを得ることは、
前記第1ターゲットドメイン生成字を前記フォント分類モデルに入力し、前記フォント分類モデルの各特徴層が出力した第2生成字特徴マップを得ることと、
前記ターゲットドメインサンプル字を前記フォント分類モデルに入力し、前記フォント分類モデルの各特徴層が出力した第2サンプル字特徴マップを得ることと、
ターゲット特徴層の第2生成字特徴マップと第2サンプル字特徴マップとの間の差異を算出し、前記第2特徴ロスを得ることと、
を含む、請求項1に記載のフォント生成モデルトレーニング方法。 - ターゲット特徴層の第2生成字特徴マップと第2サンプル字特徴マップとの間の差異を算出することは、
前記ターゲット特徴層の第2生成字特徴マップと第2サンプル字特徴マップとの間の画素差異を算出し、前記ターゲット特徴層の第2画素ロスを得ることと、
前記ターゲット特徴層の第2画素ロスにより前記第2特徴ロスを算出することと、
を含む、請求項5に記載のフォント生成モデルトレーニング方法。 - 前記ターゲット特徴層の第2生成字特徴マップと第2サンプル字特徴マップとの間の画素差異を算出することは、
前記第2生成字特徴マップにおける各位置の画素点の画素値と前記第2サンプル字特徴マップの対応する位置の画素点の画素値との間の差異値の絶対値を算出し、各位置の画素点の差異を得ることと、
複数の位置の画素点の差異により、前記第2生成字特徴マップと第2サンプル字特徴マップとの間の画素差異を確定することと、
を含む、請求項6に記載のフォント生成モデルトレーニング方法。 - 前記フォント生成モデルは循環ネットワーク生成モデルであり、第1生成モデル及び第2生成モデルを含み、
ソースドメインサンプル字をフォント生成モデルに入力し、第1ターゲットドメイン生成字を得ることは、
前記ソースドメインサンプル字を前記第1生成モデルに入力し、前記第1ターゲットドメイン生成字及び第1ソースドメイン生成字を得ることを含み、
前記フォント生成モデルトレーニング方法は、
前記ターゲットドメインサンプル字を前記第2生成モデルに入力し、第2ターゲットドメイン生成字及び第2ソースドメイン生成字を得ることと、
前記ソースドメインサンプル字、前記第1ターゲットドメイン生成字、前記第1ソースドメイン生成字、前記ターゲットドメインサンプル字、前記第2ターゲットドメイン生成字及び前記第2ソースドメイン生成字により、前記フォント生成モデルの生成ロスを算出することと、
前記生成ロスにより前記第1生成モデルのモデルパラメータを更新することと、
をさらに含む、請求項1に記載のフォント生成モデルトレーニング方法。 - 前記第1ターゲットドメイン生成字を前記文字分類モデルに入力し、前記フォント生成モデルの文字ロスを算出することをさらに含み、
前記ターゲット特徴ロスにより前記フォント生成モデルのモデルパラメータを更新することは、
前記文字ロス及び前記ターゲット特徴ロスにより前記第1生成モデルのモデルパラメータを更新することを含む、
請求項8に記載のフォント生成モデルトレーニング方法。 - 前記第1ターゲットドメイン生成字を前記文字分類モデルに入力し、前記フォント生成モデルの文字ロスを算出することは、
前記第1ターゲットドメイン生成字を前記文字分類モデルに入力し、前記第1ターゲットドメイン生成字の生成文字ベクトルを得ることと、
前記生成文字ベクトルと予め設定された標準文字ベクトルとの間の差異により、前記文字ロスを算出することと、
を含む、請求項9に記載のフォント生成モデルトレーニング方法。 - 前記ソースドメインサンプル字はターゲットソースドメインフォントスタイルを有する画像であり、前記ターゲットドメインサンプル字はターゲットドメインフォントスタイルを有する画像である、
請求項1~10のいずれか一項に記載のフォント生成モデルトレーニング方法。 - ターゲットソースドメイン入力字をフォント生成モデルに入力し、ターゲットドメイン新字を得ることと、
前記ターゲットドメイン新字に基づいて、フォントを作成することと、を含み、
前記フォント生成モデルは請求項1~10のいずれか一項に記載のフォント生成モデルトレーニング方法によりトレーニングして得られている、
フォント作成方法。 - 請求項1~11のいずれか一項に記載のフォント生成モデルトレーニング方法を実行することに用いられるフォント生成モデルトレーニング装置であって、
ソースドメインサンプル字をフォント生成モデルに入力し、第1ターゲットドメイン生成字を得ることに用いられる第1ターゲットドメイン生成字取得モジュールと、
前記第1ターゲットドメイン生成字及び予め設定されたターゲットドメインサンプル字を文字分類モデルに入力し、前記フォント生成モデルの第1特徴ロスを得ることに用いられる第1特徴ロス取得モジュールと、
前記第1ターゲットドメイン生成字及び前記ターゲットドメインサンプル字をフォント分類モデルに入力し、前記フォント生成モデルの第2特徴ロスを得ることに用いられる第2特徴ロス取得モジュールと、
前記第1特徴ロス及び/又は前記第2特徴ロスによりターゲット特徴ロスを確定することに用いられるターゲット特徴ロス取得モジュールと、
前記ターゲット特徴ロスにより前記フォント生成モデルのモデルパラメータを更新することに用いられる第1モデルパラメータ更新モジュールと、
を含む、フォント生成モデルトレーニング装置。 - ターゲットソースドメイン入力字をフォント生成モデルに入力し、ターゲットドメイン新字を得ることに用いられるターゲットドメイン新字取得モジュールと、
前記ターゲットドメイン新字に基づいて、フォントを作成することに用いられるフォント作成モジュールと、を含み、
前記フォント生成モデルは、請求項13に記載のフォント生成モデルトレーニング装置によりトレーニングして得られる、
フォント作成装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリと、を含み、
前記メモリには前記少なくとも1つのプロセッサに実行可能である指令が記憶され、前記指令は前記少なくとも1つのプロセッサに実行されることにより、前記少なくとも1つのプロセッサが請求項1~11のいずれか一項に記載のフォント生成モデルトレーニング方法又は請求項12に記載のフォント作成方法を実行可能である、
電子機器。 - コンピュータ指令が記憶された非一時的なコンピュータ可読記憶媒体であって、
前記コンピュータ指令は、コンピュータに、請求項1~11のいずれか一項に記載のフォント生成モデルトレーニング方法又は請求項12に記載のフォント作成方法を実行させることに用いられている、
非一時的なコンピュータ可読記憶媒体。 - プロセッサに実行されると、請求項1~11のいずれか一項に記載のフォント生成モデルトレーニング方法又は請求項12に記載のフォント作成方法を実現する、
コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111056559.2 | 2021-09-09 | ||
CN202111056559.2A CN113792851B (zh) | 2021-09-09 | 2021-09-09 | 字体生成模型训练方法、字库建立方法、装置及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023039887A JP2023039887A (ja) | 2023-03-22 |
JP7282932B2 true JP7282932B2 (ja) | 2023-05-29 |
Family
ID=78879800
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022007170A Active JP7282932B2 (ja) | 2021-09-09 | 2022-01-20 | フォント生成モデルトレーニング方法、字庫作成方法、装置及び機器 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220237935A1 (ja) |
EP (1) | EP4047560A1 (ja) |
JP (1) | JP7282932B2 (ja) |
KR (1) | KR20220034075A (ja) |
CN (1) | CN113792851B (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11625932B2 (en) * | 2020-08-31 | 2023-04-11 | Adobe Inc. | Organizing and representing a collection of fonts according to visual similarity utilizing machine learning |
US11995906B2 (en) * | 2022-03-02 | 2024-05-28 | Capital One Services, Llc | Techniques for generation of synthetic data with simulated handwriting |
US11947896B2 (en) | 2022-06-24 | 2024-04-02 | Adobe Inc. | Font recommendation |
US11886809B1 (en) * | 2022-10-31 | 2024-01-30 | Adobe Inc. | Identifying templates based on fonts |
CN117472257B (zh) * | 2023-12-28 | 2024-04-26 | 广东德远科技股份有限公司 | 一种基于ai算法的自动转正楷的方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021026191A (ja) | 2019-08-08 | 2021-02-22 | ブラザー工業株式会社 | 学習済みの機械学習モデル、画像データ生成装置、および、方法 |
CN113140018A (zh) | 2021-04-30 | 2021-07-20 | 北京百度网讯科技有限公司 | 训练对抗网络模型的方法、建立字库的方法、装置和设备 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109063720A (zh) * | 2018-06-04 | 2018-12-21 | 平安科技(深圳)有限公司 | 手写字训练样本获取方法、装置、计算机设备及存储介质 |
CN108710866B (zh) * | 2018-06-04 | 2024-02-20 | 平安科技(深圳)有限公司 | 汉字模型训练方法、汉字识别方法、装置、设备及介质 |
CN109165376B (zh) * | 2018-06-28 | 2023-07-18 | 西交利物浦大学 | 基于少量样本的风格字符生成方法 |
CN109615671A (zh) * | 2018-10-25 | 2019-04-12 | 北京中关村科金技术有限公司 | 一种字库样本自动生成方法、计算机装置及可读存储介质 |
CN111753493A (zh) * | 2019-09-29 | 2020-10-09 | 西交利物浦大学 | 基于少量样本的内含多种归一化处理的风格字符生成方法 |
CN113095158A (zh) * | 2021-03-23 | 2021-07-09 | 西安深信科创信息技术有限公司 | 一种基于对抗生成网络的笔迹生成方法及装置 |
CN113140017B (zh) * | 2021-04-30 | 2023-09-15 | 北京百度网讯科技有限公司 | 训练对抗网络模型的方法、建立字库的方法、装置和设备 |
CN113313022B (zh) * | 2021-05-27 | 2023-11-10 | 北京百度网讯科技有限公司 | 文字识别模型的训练方法和识别图像中文字的方法 |
-
2021
- 2021-09-09 CN CN202111056559.2A patent/CN113792851B/zh active Active
-
2022
- 2022-01-20 JP JP2022007170A patent/JP7282932B2/ja active Active
- 2022-02-28 EP EP22159077.1A patent/EP4047560A1/en not_active Withdrawn
- 2022-02-28 KR KR1020220026073A patent/KR20220034075A/ko unknown
- 2022-02-28 US US17/682,099 patent/US20220237935A1/en not_active Abandoned
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021026191A (ja) | 2019-08-08 | 2021-02-22 | ブラザー工業株式会社 | 学習済みの機械学習モデル、画像データ生成装置、および、方法 |
CN113140018A (zh) | 2021-04-30 | 2021-07-20 | 北京百度网讯科技有限公司 | 训练对抗网络模型的方法、建立字库的方法、装置和设备 |
Also Published As
Publication number | Publication date |
---|---|
CN113792851A (zh) | 2021-12-14 |
EP4047560A1 (en) | 2022-08-24 |
KR20220034075A (ko) | 2022-03-17 |
US20220237935A1 (en) | 2022-07-28 |
CN113792851B (zh) | 2023-07-25 |
JP2023039887A (ja) | 2023-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7282932B2 (ja) | フォント生成モデルトレーニング方法、字庫作成方法、装置及び機器 | |
JP7289942B2 (ja) | フォント生成モデルトレーニング方法、フォントライブラリ作成方法、フォント生成モデルトレーニング装置、フォントライブラリ作成装置、電子機器、コンピュータ可読記憶媒体、及び、コンピュータプログラム | |
EP4050569A1 (en) | Model training method and apparatus, font library establishment method and apparatus, device and storage medium | |
JP2022050666A (ja) | サイクル生成ネットワークモデルのトレーニング方法、フォントライブラリの確立方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
US20220148239A1 (en) | Model training method and apparatus, font library establishment method and apparatus, device and storage medium | |
JP7384943B2 (ja) | 文字生成モデルのトレーニング方法、文字生成方法、装置、機器及び媒体 | |
US20220270384A1 (en) | Method for training adversarial network model, method for building character library, electronic device, and storage medium | |
CN113095421B (zh) | 生成字体数据库的方法、神经网络模型的训练方法和装置 | |
CN111539897A (zh) | 用于生成图像转换模型的方法和装置 | |
JP2023039890A (ja) | 文字生成モデルのトレーニング方法、文字生成方法、装置および機器 | |
JP2022166215A (ja) | 文字位置決めモデルのトレーニング方法及び文字位置決め方法 | |
CN117557708A (zh) | 图像生成方法、装置、存储介质及计算机设备 | |
US20230154077A1 (en) | Training method for character generation model, character generation method, apparatus and storage medium | |
JP7419226B2 (ja) | 画像変換方法及び装置、画像変換モデルのトレーニング方法及び装置 | |
Sun et al. | A mongolian handwritten word images generation approach based on generative adversarial networks | |
CN114973279B (zh) | 手写文本图像生成模型的训练方法、装置和存储介质 | |
CN117152282A (zh) | 一种通过文本生成手部x光图像的方法及终端 | |
Osorio et al. | WiKA: A Vision Based Sign Language Recognition from Extracted Hand Joint Features using DeepLabCut |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230413 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230425 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230517 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7282932 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |