JP2011022429A - Writing brush font creating method and writing brush font creating program - Google Patents

Writing brush font creating method and writing brush font creating program Download PDF

Info

Publication number
JP2011022429A
JP2011022429A JP2009168357A JP2009168357A JP2011022429A JP 2011022429 A JP2011022429 A JP 2011022429A JP 2009168357 A JP2009168357 A JP 2009168357A JP 2009168357 A JP2009168357 A JP 2009168357A JP 2011022429 A JP2011022429 A JP 2011022429A
Authority
JP
Japan
Prior art keywords
target
edge
font
brush
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009168357A
Other languages
Japanese (ja)
Inventor
Takeshi Nakamura
剛士 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya Institute of Technology NUC
Original Assignee
Nagoya Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya Institute of Technology NUC filed Critical Nagoya Institute of Technology NUC
Priority to JP2009168357A priority Critical patent/JP2011022429A/en
Publication of JP2011022429A publication Critical patent/JP2011022429A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method for creating writing brush font in which crack and bleeding are added to the writing brush font without using an image filter. <P>SOLUTION: Graphs which represent both character skeletons of Reference which becomes a reference instance and Target which becomes a processing target are obtained as a set of edges connecting nodes, and correspondence relationship between edges configuring each graph is determined. As shown by 16 and 17 in the figure, an edge of a left-falling stroke in Reference Shape kanji pronounced "ten" is allocated to an edge of a left-falling stroke in Target kanji pronounced "dai". By this allocation, character areas around the edges are associated. The corresponding character area on the Reference (portion of the left-falling stroke of "ten") is extracted as a texture and pasted to the character area of the left-falling stroke in the Target "dai". In this way, allocation of the edge of the Reference Shape corresponding to each edge of the Target, association of the character area around the edge to which the Reference is allocated, and pasting of the texture are executed for all edges configuring the Target, and output font is obtained. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、参照事例となる毛筆文字の持つ掠れ滲み特徴を処理対象の毛筆フォントに付加して毛筆フォントを作成する毛筆フォント作成方法および毛筆フォント作成プログラムに関するものである。   The present invention relates to a brush font creation method and a brush font creation program for creating a brush font by adding a blurring feature of a brush brush character as a reference example to a brush font to be processed.

これまでに,毛筆フォントの作成や加工に関する研究がいくつか報告されている.筆触カーソルや数理形態学を用いた毛筆フォントの掠れ滲み表現技術(特許文献1、非特許文献1,2)はその代表的な研究例であるが,処理対象である既存の毛筆フォントにたいし掠れ・滲みのデザインを付加し,手書き風の芸術特徴をフォントに付加するものである.この方法は画像フィルタを利用したアプローチに相当する。   So far, there have been several reports on creation and processing of brushstroke fonts. The brush blotting expression technology (Patent Document 1, Non-Patent Documents 1 and 2) using a brush cursor and mathematical morphology is a typical example of the research, but it is not suitable for existing brush fonts to be processed. It adds drowning / bleeding design and adds hand-drawn artistic features to the font. This method corresponds to an approach using an image filter.

他方,処理対象が毛筆フォントではないが,一般画像をテクスチャ合成によって絵画風に変換する等の手法が存在する。非特許文献3,4がその代表例であるが,これらは処理対象である一般画像のほかに,参照事例として著名画家の絵画画像等を用意し,それが持つ美術的特徴を利用して一般画像を処理し参照事例に類似した絵画風画像に変換するものである。   On the other hand, although the processing target is not a brush brush font, there is a method of converting a general image into a painting style by texture synthesis. Non-Patent Documents 3 and 4 are typical examples. In addition to general images to be processed, non-patent documents 3 and 4 are prepared using reference images such as painting images of famous painters and using their artistic features. The image is processed and converted into a picture-like image similar to the reference example.

特開平10−83177号公報JP-A-10-83177

中村剛士,真野淳治,世木博久,伊藤 英則,``毛筆フォントの掠れ・滲み処理システムについて'',情報処理学会論文誌, vol.38, no.5, pp.1008--1015, May.1997.Takeshi Nakamura, Yuji Mano, Hirohisa Seki, Hidenori Ito, “On the brush font blurring / bleeding processing system”, IPSJ Journal, vol.38, no.5, pp.1008--1015, May. 1997. 市川孝之,井戸川知之,堤正義,``数理形態学を用いた毛筆体フォントの掠れ・滲み処理'',日本応用数理学会論文誌, vol.10, no.3, pp.263--272, Sept.2000.Takayuki Ichikawa, Tomoyuki Idokawa, Masayoshi Tsutsumi, “Folding and blurring of brush fonts using mathematical morphology”, Journal of Japan Society of Applied Mathematical Sciences, vol.10, no.3, pp.263--272, Sept. 2000. A. Hertzmann, C. Jacobs, N. Oliver, B. Curless, and D. Salesin,``Image Analogies'', Proc. SIGGRAPH '01, pp.327--340, Aug.2001.A. Hertzmann, C. Jacobs, N. Oliver, B. Curless, and D. Salesin, `` Image Analogies '', Proc. SIGGRAPH '01, pp.327--340, Aug.2001. G. Ramanarayanan, and K. Bala,``Constrained Texture Synthesis via Energy Minimization'', IEEE Transactions on Visualization and Computer Graphics, vol.13, no.1, pp.167--178, Jan.2007.G. Ramanarayanan, and K. Bala, `` Constrained Texture Synthesis via Energy Minimization '', IEEE Transactions on Visualization and Computer Graphics, vol.13, no.1, pp.167--178, Jan.2007.

特許文献1、非特許文献1、2に記載のものの問題点は,毛筆フォントに掠れ・滲みを付加する処理において,著名書家の作品画像などの参照事例となるものを使用せず,画像フィルタによって処理をすることにある。このため,画像フィルタの設計が,最終的に加工出力される毛筆フォントの質に大きく影響する。しかしながら,このフィルタの設計は容易ではなく,フィルタによってどのような出力が獲得されるかは予想することが難しく,そのため,デザインするユーザが期待する任意の掠れや滲み特徴をフォントに付加することはほぼ出来ないに等しい。   The problem with those described in Patent Document 1 and Non-Patent Documents 1 and 2 is that an image filter is used without adding a reference example such as a work image of a famous writer in the process of adding a blur or blur to a brush brush font. There is in processing. For this reason, the design of the image filter greatly affects the quality of the brush brush font that is finally processed and output. However, the design of this filter is not easy, and it is difficult to predict what output will be obtained by the filter, so it is not possible to add any blurring or blurring features expected by the designing user to the font. It is almost impossible.

非特許文献3、4に記載のものは,参照事例を用いることでその美術特徴を,ユーザ自身が視覚によって確認した上で絵画風画像変換を実行できるため,ユーザが期待する出力画像を得ることが出来る。ただし,この方法は,毛筆文字のように筆の進む方向が明白な構造を持った処理対象については,その構造に基づいた処理をすることが出来ない。そのため,フォントの加工処理に利用しても,掠れや滲みの特徴が不自然となり,参照事例に類似した特徴を出力に反映させることが出来ない。   Non-Patent Documents 3 and 4 can obtain the output image expected by the user because the artistic feature can be executed by the user himself / herself visually confirming the art feature by using the reference example. I can do it. However, this method cannot perform processing based on the structure of a processing target having a structure in which the direction in which the brush advances is clear, such as a brushstroke character. For this reason, even if it is used for font processing, the features of blurring and blurring become unnatural, and it is not possible to reflect features similar to the reference case in the output.

本発明は上記点に鑑みて、画像フィルタを用いずに毛筆フォントに掠れ滲みを付加した毛筆フォントを作成することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to create a writing brush font in which a blur is added to the writing brush font without using an image filter.

上記目的を達成するため、請求項1に記載の発明では、参照事例となる毛筆文字の持つ掠れ滲み特徴を処理対象となる対象フォントに付加して毛筆フォントを作成する毛筆フォント作成方法であって,
前記参照事例と前記対象フォントの双方の文字骨格をノードとノード間を繋ぐエッジの集合として表現したグラフとして獲得するステップと,
前記参照事例と前記対象フォントの双方のグラフが持つエッジ同士を対応付けるステップと,
前記対象フォントのエッジにたいし,対応する前記参照事例のエッジ周辺の掠れ滲み特徴を貼りつけるステップと、を有することを特徴とする。
In order to achieve the above object, the invention described in claim 1 is a brush font creation method for creating a brush font by adding a blurring feature of a brush stroke character as a reference example to a target font to be processed. ,
Obtaining a character skeleton of both the reference case and the target font as a graph expressed as a set of edges connecting nodes.
Associating edges of graphs of both the reference case and the target font;
Pasting the blurring feature around the edge of the reference case corresponding to the edge of the target font.

請求項2に記載の発明では、上記した毛筆フォント作成方法をコンピュータに実行させるためのプログラムを特徴とする。   According to a second aspect of the present invention, there is provided a program for causing a computer to execute the brush font creation method described above.

本発明の一実施形態に係る毛筆フォント作成方法の概要を示す図である。It is a figure which shows the outline | summary of the writing brush font production method which concerns on one Embodiment of this invention. Reference Shape,Referenceの文字骨格を示すグラフ構成を示す図である。It is a figure which shows the graph structure which shows the character skeleton of Reference Shape and Reference. Targetの文字骨格を示すグラフ構成を示す図である。It is a figure which shows the graph structure which shows the character skeleton of Target. 毛筆フォント作成方法の概念図である。It is a conceptual diagram of a writing brush font creation method. 本発明の一実施形態に係る毛筆フォント作成方法を実施するハードウェア構成を示す図である。It is a figure which shows the hardware constitutions which implement the writing brush font production method which concerns on one Embodiment of this invention. 毛筆フォント作成方法を実行するためのプログラムを示すフローチャートある。It is a flowchart which shows the program for performing the writing brush font production method. 図6中のエッジ割当処理の概念図を示す図である。It is a figure which shows the conceptual diagram of the edge allocation process in FIG. エッジ割当処理のStyle評価部分を示すフローチャートである。It is a flowchart which shows the Style evaluation part of an edge allocation process. エッジ割当処理のLength,Direction評価部分を示すフローチャートである。It is a flowchart which shows the Length and Direction evaluation part of an edge allocation process. テクスチャ貼付処理を示すフローチャートである。It is a flowchart which shows a texture sticking process. テクスチャ貼付処理の概念図である。It is a conceptual diagram of a texture sticking process. 本発明の入出力例および従来研究の出力例を示す図である。It is a figure which shows the output example of the input / output example of this invention, and a conventional research.

図1に本発明の一実施形態に係る毛筆フォント作成方法の概要を示す。この毛筆フォント作成方法では,図1の1に示すReferenceを参照事例とし,図1の3に示すTargetを処理の対象とする。Referenceの持つ掠れ滲み特徴をTargetに付加することで,4に示す出力フォントOutputを得る。ただし,掠れ滲み加工処理の入力としては,ReferenceとTargetのほかに,図1の3に示すReference Shapeを入力する。Reference ShapeはReferenceの文字領域(筆が通った墨のついた部分と掠れた部分)を背景領域と区別するために別途用意する。   FIG. 1 shows an outline of a writing brush font creation method according to an embodiment of the present invention. In this writing brush font creation method, Reference 1 shown in FIG. 1 is a reference example, and Target 3 shown in FIG. 1 is a processing target. The output font Output shown in 4 is obtained by adding the blurring feature of Reference to Target. However, in addition to Reference and Target, the Reference Shape shown at 3 in FIG. The reference shape is prepared separately to distinguish the reference character area (the blacked-in and brushed parts) from the background area.

図1の3に示すReference Shapeと図1の2に示すTargetはそれぞれ細線化処理によってその文字骨格を獲得する。それぞれの文字骨格は図2,図3に示す無向グラフ構造で表すことができる。図2はReference Shape,図3はTargetの例である。図2の○で示す21はグラフの終端ノードを表し,□で示す22は非終端ノードを表す。また,図2の23に示すようにノード間を繋ぐ線をエッジとする。図3のTargetについても,24,25に示す○,□は図2で示すものと同じ終端ノード,非終端ノードであり,26はエッジを表す。これによって,Reference ShapeおよびTargetは元々,文字領域と背景領域で構成されるが,これに加えて文字領域の文字骨格を表すグラフが追加される。Reference Shapeの文字骨格とその無向グラフ構造は図1の1に示すReferenceの骨格にも相当する。   Reference Shape 3 shown in FIG. 1 and Target 2 shown in FIG. 1 each acquire the character skeleton by thinning processing. Each character skeleton can be represented by the undirected graph structure shown in FIGS. FIG. 2 shows an example of Reference Shape, and FIG. 3 shows an example of Target. In FIG. 2, 21 indicated by ○ represents a terminal node of the graph, and 22 indicated by □ represents a non-terminal node. Further, as indicated by 23 in FIG. 2, a line connecting nodes is defined as an edge. Also for Target in FIG. 3, ◯ and □ shown in 24 and 25 are the same terminal nodes and non-terminal nodes as shown in FIG. 2, and 26 represents an edge. Thus, Reference Shape and Target are originally composed of a character area and a background area, but in addition to this, a graph representing the character skeleton of the character area is added. The character skeleton of Reference Shape and its undirected graph structure also correspond to the skeleton of Reference shown in 1 of FIG.

図4に本発明の処理の流れを示す。図4の13に示すinputは,Target, Reference, Reference Shapeの3画像であり,図4の14は細線化処理後に獲得したグラフ構造を持つReference Shape及びReferenceの文字骨格GRであり,図4の15は同様にして得たTargetの文字骨格GTである。 FIG. 4 shows a processing flow of the present invention. FIG input shown in 13 of 4, Target, Reference, a third image of Reference Shape, 14 in FIG. 4 is a character skeleton G R of Reference Shape and Reference with graph structure acquired after thinning processing, FIG. 4 15 is a character skeleton G T of Target obtained in the same manner.

文字骨格を獲得した後,各グラフを構成するエッジ同士の対応関係を決める。すなわち,GTを構成するエッジにたいしGRを構成するエッジのいずれかを割り当てる。割当は重複しても構わない。図4の16,17は14に示すReference Shape「天」の左払いのエッジを,Target「大」の左払いのエッジに割り当てることを決定した例であり,割当によってエッジ周辺の文字領域も対応づける。16,17に対応するエッジとエッジ周辺の文字領域(灰色で示す領域)が対応付けられた様子を示す。図4の18はReferenceであり,図4の19は18のReference上の対応する文字領域(「天」の左払い部分)をテクスチャとして取り出し,Targetの「大」の左払いである文字領域に貼付した様子を示す。 After acquiring the character skeleton, the correspondence between edges constituting each graph is determined. That is, assign one of the edges constituting the G R ambassador edges constituting the G T. Allocations may overlap. 16 and 17 in Fig. 4 are examples in which the left-paid edge of Reference Shape “Ten” shown in 14 is decided to be assigned to the left-paid edge of Target “Large”. Put it on. The state in which the edges corresponding to 16 and 17 are associated with the character areas around the edges (areas shown in gray) is shown. 18 in FIG. 4 is Reference, and 19 in FIG. 4 is the corresponding character area (left-handed part of “heaven”) on 18 Reference is extracted as a texture. The state of pasting is shown.

このように,Targetの各エッジに対応するReference Shapeのエッジの割当,さらにReferenceの割当するエッジ周辺の文字領域の対応づけおよびテクスチャ貼付を,Targetを構成するすべてのエッジに対し実行し,出力フォント(図4の20のoutput)を得る。   In this way, the assignment of the reference shape edge corresponding to each edge of the target, the association of the character area around the edge to which the reference is assigned, and the texture pasting are executed for all the edges constituting the target, and the output font (20 output in FIG. 4) is obtained.

つぎに、上記した概要の具体的な構成について説明する。図1に示した概要をハードウェアとして構成した場合,たとえば図5のように構成される。すなわち,Target,Reference,Reference Shapeの3つを画像としてそれぞれスキャナ5等によってコンピュータ6に取り込み,それをコンピュータ6内部でプログラムによって処理し,Outputを画像としてディスプレイ,プリンタ7等に出力する。   Next, a specific configuration of the above outline will be described. When the outline shown in FIG. 1 is configured as hardware, for example, it is configured as shown in FIG. That is, Target, Reference, and Reference Shape are each taken as an image into the computer 6 by the scanner 5 or the like, processed by a program inside the computer 6, and Output is outputted as an image to the display, the printer 7, or the like.

コンピュータ6内部で実行されるプログラムのフローチャートを図6に示す。このフローチャートの処理の流れに沿って,各処理の概略を説明する。   A flowchart of a program executed in the computer 6 is shown in FIG. The outline of each process will be described along the process flow of this flowchart.

まず,ステップ8に示すように,プログラムは,Target, Reference, Reference Shapeの3画像を入力として受取り,ステップ9に示す細線化処理(たとえばHilditchの細線化)Reference Shapeの2画像にたいし実行する。これによりステップ10に示すようにTargetとReference Shapeの文字骨格をグラフ構造GT ,GRとしてそれぞれ獲得する。ここでいうグラフ構造とは文字骨格をノードとエッジの集合として表現したものをいう。また,Reference Shapeの文字骨格GRはReferenceの文字骨格としても扱うように設定する。 First, as shown in step 8, the program receives three images of Target, Reference, and Reference Shape as inputs, and executes the thinning processing (for example, thinning of Hilditch) shown in step 9 for two images of Reference Shape. . As a result, as shown in step 10, the character skeletons of Target and Reference Shape are acquired as graph structures G T and G R , respectively. The graph structure here refers to a character skeleton expressed as a set of nodes and edges. The character skeleton G R of Reference Shape is set to handle even a character skeleton of Reference.

つぎに,j=1として初期化し,ステップ11に示すように,Targetのj番目のエッジe にたいしReferenceのエッジe を割り当てる。エッジの割当が決まったら,ステップ12に示すようにTargetのj番目のエッジe 周辺の文字領域にたいしReferenceのエッジe 周辺のテクスチャを加工して添付する。この割当,テクスチャ貼付の処理をTargetの総エッジ数M分だけ繰り返しプログラムを終了する。 Next, initialization is performed with j = 1, and as shown in step 11, the reference edge e j R is assigned to the j-th edge e j T of the target. When the edge assignment is determined, attached by processing the edge e j R near texture Reference ambassador j th edge e j T a character peripheral region of the Target as shown in step 12. This assignment, to end the repeated program the processing of texture pasting only the total number of edges M T worth of Target.

以下、上記した各ステップのうちステップ10〜12での処理の詳細について説明する。
(ステップ10の処理)
ステップ10において,Reference ShapeとTargetはそれぞれ細線化処理(たとえば,Hilditchの細線化法)によってその文字骨格を獲得する(グラフ構造GR ,GTの例については図2,図3参照)。グラフGR ,GTを構成するエッジ,ノードの各定義については次のとおりである。図2,図3に例示したように,GR ,GT は複数のノード及びノード間を結ぶエッジから構成される。
The details of the processing in steps 10 to 12 among the above-described steps will be described below.
(Process of Step 10)
In Step 10, the Reference Shape and the Target each acquire the character skeleton by thinning processing (for example, Hilditch thinning method) (see FIGS. 2 and 3 for examples of the graph structures G R and G T ). Graph G R, edges constituting the G T, for each definition of a node is as follows. As illustrated in FIGS. 2 and 3, G R and G T are composed of a plurality of nodes and edges connecting the nodes.

ここで,式(1)と式(2)に示すように,GRが持つノードの集合をV,GTが持つノードの集合をVと表す。また式(1)と式(2)にあるように,V ,V をそれぞれGR を構成するi番目のノード,GT を構成するj番目のノードとする。 Here, as shown in the formula (1) into equation (2), represents G R the set of nodes with the V R, the set of nodes with the G T and V T. Also as is the equation (1) into equation (2), i-th nodes constituting the V j R, V j T each G R, and j-th nodes constituting the G T.

式(3)と式(4)に示すように,各ノードには,終端ノード(tn)と非終非終端ノード(ntn)の2種類を設定する。さらに,GRとGTのエッジの集合を式(5)と式(6)に示すように,それぞれE,Eと表し,式(5)と式(6)に示すように,GR を構成するi番目のエッジ,GT を構成するj番目のノードをそれぞれe ,e と表す。 As shown in Expression (3) and Expression (4), two types of terminal nodes (tn) and non-terminal non-terminal nodes (ntn) are set for each node. Furthermore, a set of edges of G R and G T is expressed as E R and E T as shown in Equations (5) and (6), respectively, and as shown in Equations (5) and (6), G i th edge constituting the R, the j-th nodes constituting the G T respectively represent a e j R, e j T.

また,式(7)と式(8)に示すように,各エッジには3種類の属性(Style,Direction,Length)を設定する。ここで,Styleはエッジの種類(tnまたはntn),Directionはエッジの近似ベクトル,Lengthはエッジの長さを表す。   Also, as shown in Expression (7) and Expression (8), three types of attributes (Style, Direction, Length) are set for each edge. Here, Style represents the edge type (tn or ntn), Direction represents the approximate vector of the edge, and Length represents the length of the edge.

エッジの種類Style については,式(9)に示すように,tnとtnを結ぶエッジ,tnとntnを結ぶエッジ,ntnとntnを結ぶエッジの3種類が存在する。なお,無向グラフを扱うため(tn,ntn)と(ntn,tn)は同じStyleとして扱いを区別しない。   As shown in Expression (9), there are three types of edge style: an edge connecting tn and tn, an edge connecting tn and ntn, and an edge connecting ntn and ntn. In order to handle undirected graphs, (tn, ntn) and (ntn, tn) are not treated as the same Style.

エッジの近似ベクトルDirectionについてはエッジの近似ベクトルであり,エッジの方向を評価するための属性を表す。ここで,e のDirectionをe ベクトル(その表記については式12参照),e のDirectionをe ベクトル(その表記については式12参照)と表す。エッジ長さ Length については,エッジの長さを表すが,ここではエッジを構成する画素数とし,e のLengthを|e |,e のLengthを|e |と表す。
(ステップ11の処理)
ステップ11に示すエッジ割当処理の概念図を図7に示す。処理対象であるTargetのj番目のエッジe にたいし,割り当てるe を決定する。まず,e のStyle と全ての参照エッジの Style との類似度をハミング距離により評価する。式(10)は,Style をハミング距離で評価するため,tn =0, ntn = 1 と設定したものである。e の Style にたいしハミング距離最小となるe についてのみ(ハミング距離最小となるe は複数存在することもある) その後の処理の対象とする。
The edge approximation vector Direction is an edge approximation vector and represents an attribute for evaluating the edge direction. Here, (see equation 12 for the notation) a Direction of e j R e j R vector, representing the Direction of e j T a e j T vector (see equation 12 for the notation). Edge the length Length is representative of the length of the edge, where the number of pixels constituting the edge, the Length of e j R | e j R | , the Length of e j T | e j T | represent .
(Step 11)
FIG. 7 shows a conceptual diagram of the edge assignment process shown in step 11. An e j R to be allocated is determined for the j-th edge e j T of the target to be processed. First, the similarity between the Style of Style and all references edges e j T evaluated by the Hamming distance. Equation (10) is set with tn = 0 and ntn = 1 in order to evaluate the Style by the Hamming distance. e j T of Style to the e j R as the Hamming distance minimum only (the Hamming distance smallest e j R sometimes there are a plurality) and subsequent processing of the subject.

そのe にたいし,Direction と Length を式(11)を使って評価し,評価値が最大となるe をe に割り当てる。式(11)中のrij,lijはそれぞれ式(12)と式(13)で定義され,w,wは式(14)の関係を満たす。 Chosen for that e j R, the Direction and Length evaluated using equation (11), assign e j R the evaluation value becomes the maximum e j T. In formula (11), r ij and l ij are defined by formula (12) and formula (13), respectively, and w r and w l satisfy the relationship of formula (14).

図7の処理をフローチャートで示したものが図8,図9である。図8はStyleの類似度評価を実施する部分に相当する。   FIGS. 8 and 9 show the processing of FIG. 7 in a flowchart. FIG. 8 corresponds to a portion for performing the similarity evaluation of Style.

まず初期化として,Reference Shapeの番号を示すiを0とし,類似度評価として実施するハミング距離の最小値をDhに記録するため,Dhが取る得る最大値以上の値の3で初期化する。 First, as the initialization, the i indicating a Reference number of the Shape to 0, for recording the minimum value of Hamming distance implemented as similarity evaluation to D h, initialized at the third maximum value or values obtained taking the D h To do.

つぎに,e とe の間のStyle の類似度を評ハミング距離によって評価し,その距離をe のe にたいするハミング距離としてdiに記録する。diが現在の最小値Dhよりも小さいならばdiの値をDhに代入する以上の処理をReference Shapeの総エッジ数MR分だけ繰り返す。 Then, e j the Style of similarity between T and e j R assessed by criticism Hamming distance, and records the distance d i as Hamming distance against e j T of e j R. d i is repeated a value if smaller d i than the current minimum value D h the above processes to be assigned to D h only total number of edges M R min of Reference Shape.

図9は図8で示したフローチャートの続きである。Styleの類似度評価を実施後,i = n = 1, max = -1として初期化する。iはReference Shapeの番号を示し,nは式(11)の評価値が最大となるiを記録する変数であり,maxは式(11)の最大評価値を記録する変数である。初期化後,e のe にたいするハミング距離として記録したdiが最小値Dhと一致するか否かチェックし,最小値Dhと一致するものだけをその後の処理の対象とする。 FIG. 9 is a continuation of the flowchart shown in FIG. After performing the Style similarity evaluation, initialize as i = n = 1, max = -1. i indicates the reference shape number, n is a variable that records i that maximizes the evaluation value of equation (11), and max is a variable that records the maximum evaluation value of equation (11). After initialization, e j R of e j T d i which was recorded as the Hamming distance against it is checked whether or not matching the minimum value D h, only the object of subsequent processing that matches the minimum value D h .

つぎに,e とe の間の Length,Direction の評価を式(11)によって実施し,評価値をdmaxに記録する。dmaxが現在の最大値maxよりも大きい場合にはdmaxに記録し,そのときのReference Shapeの番号iをnとして記録する。 Next, Length between e j T and e j R, the evaluation of the Direction performed by equation (11), recording the evaluation value dmax. If dmax is larger than the current maximum value max, it is recorded in dmax, and the reference shape number i at that time is recorded as n.

以上の処理をReference Shapeの総エッジ数MR分だけ繰り返すことで,Targetのj番目のエッジe にたいし,割り当てるReference Shapeのエッジ番号をnとして獲得する。すなわち,e にたいし割り当てるe (i=n)が決定する。
(ステップ12の処理)
ステップ12に示すテクスチャ処理のフローチャートを図10に示す。また,その概念図を図11に示す。
By repeating the above processing only the total number of edges M R min of Reference Shape, ambassador j th edge e j T of Target, acquiring Reference Shape of edge number assigned as n. That is, e i R (i = n) assigned to e j T is determined.
(Process of Step 12)
A flowchart of the texture processing shown in step 12 is shown in FIG. Moreover, the conceptual diagram is shown in FIG.

に割当ての決まったe 周辺のReferenceの文字領域からテクスチャパッチ群を切り出しe 周辺の文字領域に貼付処理する。 e j T affixed processed text region near e j T cut texture patch group from the character region of Reference of fixed e j R around the assigned to.

まず,Targetのエッジ上にサンプリング点を配置するが,その総数を|e |+1に設定し等間隔にサンプリング点を配置する。Reference Shape,Referenceにも同様にサンプリング点を配置するが,その総数を|e |+1に設定し,等間隔にサンプリング点を配置する。図11の28,32は各エッジ(27,31)上に配置したサンプリング点の1つを示す。また,mをe のm番目のサンプリング点を表すものとし,m=0として初期化する。 First, sampling points are arranged on the edge of the target. The total number is set to | e j T | +1, and the sampling points are arranged at equal intervals. Sampling points are similarly arranged in Reference Shape and Reference, but the total number is set to | e j R | +1, and sampling points are arranged at equal intervals. Reference numerals 28 and 32 in FIG. 11 denote one of sampling points arranged on each edge (27, 31). Also, m represents the mth sampling point of e j T , and is initialized as m = 0.

のm番目のサンプリング点に対応するe のk番目のサンプリング点を式(15)により決定する。図11の例では,m番目のサンプリング点が32であり,k番目のサンプリング点が28である。 The k th sampling point of e j R corresponding to the m th sampling point of e j T is determined by Equation (15). In the example of FIG. 11, the mth sampling point is 32 and the kth sampling point is 28.

のk番目のサンプリング点を中心とした長方形領域をReferenceのテクスチャパッチP として抽出する。図11の例では,Reference Shapeで示す29の長方形領域に対応する30のReferenceの長方形領域がP として抽出される。 a rectangular region around the k-th sampling point e j R is extracted as a texture patch P k R of Reference. In the example of FIG. 11, 30 reference rectangular areas corresponding to 29 rectangular areas indicated by Reference Shape are extracted as P k R.

を式(16)によって拡大縮小回転処理しe のm番目のサンプリング点を中心とした長方形領域の形状に合わせて貼付処理する。貼付処理にはテクスチャ合成を使用し,シームレスでテクスチャパッチ間の繋ぎ目が分かりにくくする処理をする。図11の33の長方形領域のサイズに合わせて30のP を拡大縮小回転処理することで変形し,貼付する。なお,式(16)中のαは式(17)によって定義される。式(17)のd ,d はそれぞれm番目のサンプリング点,k番目のサンプリング点から文字領域と背景領域の巨魁までの最短距離を表し,文字の太さを示す指標である。 P k R is subjected to enlargement / reduction rotation processing by Expression (16), and pasting processing is performed in accordance with the shape of the rectangular region centered on the m th sampling point of e j T. For the pasting process, texture synthesis is used to seamlessly obscure joints between texture patches. According to the size of the rectangular region 33 of FIG. 11 deforms by scaling rotating handle 30 of P k R, affixed. Note that α in equation (16) is defined by equation (17). D m T, d k R each m-th sampling point in expression (17) represents the shortest distance from the k-th sampling point to the ringleader of the character region and a background region, which is an index indicating the thickness of the character.

以上の処理をだけ繰り返すことで,Targetのサンプリング点総数|e |+1分だけ繰り返しe にたいするテクスチャ貼付処理を完了する。 By repeating the above process only, the total number of sampling points of the target | e j T | +1 is repeated repeatedly to complete the texture pasting process for e j T.

以上述べた実施形態に係る毛筆フォント作成方法によれば、以下の特徴を有する。   The brush font creation method according to the embodiment described above has the following characteristics.

まず,参照事例となる実際の毛筆文字(著名書道家の作品画像等)を利用し,それが持つ掠れ滲み特徴を出力に反映させる。これにより,ユーザは,処理対象の毛筆フォントに掠れ滲み処理加工する際,その参照事例の特徴を視覚的に確認できるため,出力フォントのデザインを予想でき,デザインが容易になる。   First, the actual brushstroke character (a work image of a famous calligrapher, etc.), which is a reference example, is used, and the blurring feature that it has is reflected in the output. As a result, the user can visually check the characteristics of the reference case when he / she performs the blurring process on the target brush font, so the design of the output font can be predicted and the design becomes easy.

参照事例の持つ掠れ滲み特徴を対象フォントに付加するために,参照事例と対象フォントの双方の骨格構造を獲得する。この骨格構造は筆の進む方向と文字の太さの情報を持つ。この骨格をグラフ構造で表し,参照事例と対象フォント双方のグラフが持つエッジ同士を対応付け,対象フォントのエッジにたいし,対応する参照事例のエッジ周辺の掠れ滲み特徴を付加する。   In order to add the blurring feature of the reference case to the target font, the skeleton structure of both the reference case and the target font is acquired. This skeletal structure has information on the direction of the brush and the thickness of the characters. This skeleton is represented by a graph structure, the edges of the graphs of both the reference case and the target font are associated with each other, and the blurring feature around the edge of the corresponding reference case is added to the edge of the target font.

この掠れ滲み特徴の付加は,テクスチャ合成(シームレスなテクスチャパッチの貼付)によって実現する。このテクスチャ合成で利用するテクスチャパッチ群は,参照事例の毛筆文字を骨格構造に沿って分解することで得られる。また,分解したテクスチャパッチの順序関係を,骨格に沿って連続する順序関係として保持し,テクスチャパッチ群を対応する対象フォントのエッジにたいし,その順序関係を保持しながら割当て貼りつける。これにより,参照事例の持つ掠れ滲み特徴を損なうことなく,掠れ滲みの加工処理が実現する。   The addition of the blur blur feature is realized by texture synthesis (seamless texture patch application). The texture patch group used in this texture synthesis is obtained by disassembling the reference case brush characters along the skeleton structure. Further, the order relation of the decomposed texture patches is held as an order relation continuous along the skeleton, and the texture patches are assigned and pasted to the edges of the corresponding target font while keeping the order relation. As a result, the blur bleeding process is realized without impairing the blur bleeding characteristics of the reference example.

図12は本発明の入出力例である。34はTarget,35はReferenceである。Reference Shape は35から作成するため省略する。36は本発明によって作成した出力フォント例であり,37は従来手法によって作成した出力例である。   FIG. 12 shows an input / output example of the present invention. 34 is Target and 35 is Reference. Reference Shape is omitted because it is created from 35. 36 is an output font example created by the present invention, and 37 is an output example created by the conventional method.

Claims (2)

参照事例となる毛筆文字の持つ掠れ滲み特徴を処理対象となる対象フォントに付加して毛筆フォントを作成する毛筆フォント作成方法であって,
前記参照事例と前記対象フォントの双方の文字骨格をノードとノード間を繋ぐエッジの集合として表現したグラフとして獲得するステップと,
前記参照事例と前記対象フォントの双方のグラフが持つエッジ同士を対応付けるステップと,
前記対象フォントのエッジにたいし,対応する前記参照事例のエッジ周辺の掠れ滲み特徴を貼りつけるステップと、を有することを特徴とする毛筆フォント作成方法。
A brush font creation method for creating a brush font by adding a blurring feature of a brush stroke character as a reference example to a target font to be processed,
Obtaining a character skeleton of both the reference case and the target font as a graph expressed as a set of edges connecting nodes.
Associating edges of graphs of both the reference case and the target font;
And a step of applying a blurring feature around the edge of the reference case corresponding to the edge of the target font.
参照事例となる毛筆文字の持つ掠れ滲み特徴を処理対象となる対象フォントに付加して毛筆フォントを作成する毛筆フォント作成方法をコンピュータに実行させるためのプログラムあって,
前記参照事例と前記対象フォントの双方の文字骨格をノードとノード間を繋ぐエッジの集合として表現したグラフとして獲得するステップと,
前記参照事例と前記対象フォントの双方のグラフが持つエッジ同士を対応付けるステップと,
前記対象フォントのエッジにたいし,対応する前記参照事例のエッジ周辺の掠れ滲み特徴を貼りつけるステップと、をコンピュータに実行させるためのプログラム。
A program for causing a computer to execute a brush font creation method for creating a brush font by adding the blurring feature of a brush brush character as a reference example to the target font to be processed.
Obtaining a character skeleton of both the reference case and the target font as a graph expressed as a set of edges connecting nodes.
Associating edges of graphs of both the reference case and the target font;
A program for causing a computer to execute the step of pasting the blurring feature around the edge of the reference case corresponding to the edge of the target font.
JP2009168357A 2009-07-17 2009-07-17 Writing brush font creating method and writing brush font creating program Pending JP2011022429A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009168357A JP2011022429A (en) 2009-07-17 2009-07-17 Writing brush font creating method and writing brush font creating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009168357A JP2011022429A (en) 2009-07-17 2009-07-17 Writing brush font creating method and writing brush font creating program

Publications (1)

Publication Number Publication Date
JP2011022429A true JP2011022429A (en) 2011-02-03

Family

ID=43632546

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009168357A Pending JP2011022429A (en) 2009-07-17 2009-07-17 Writing brush font creating method and writing brush font creating program

Country Status (1)

Country Link
JP (1) JP2011022429A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175520A1 (en) * 2012-05-21 2013-11-28 三菱電機株式会社 Character drawing device
WO2020105366A1 (en) * 2018-11-22 2020-05-28 キヤノン株式会社 Information processing device, information processing method, program, storage medium, and image forming system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013175520A1 (en) * 2012-05-21 2013-11-28 三菱電機株式会社 Character drawing device
CN104126199A (en) * 2012-05-21 2014-10-29 三菱电机株式会社 Character drawing device
JPWO2013175520A1 (en) * 2012-05-21 2016-01-12 三菱電機株式会社 Character drawing device
CN104126199B (en) * 2012-05-21 2016-03-09 三菱电机株式会社 Character rendering device
WO2020105366A1 (en) * 2018-11-22 2020-05-28 キヤノン株式会社 Information processing device, information processing method, program, storage medium, and image forming system
JP2020086850A (en) * 2018-11-22 2020-06-04 キヤノン株式会社 Information processor, information processing method and program, and image forming system
US11496635B2 (en) 2018-11-22 2022-11-08 Canon Kabushiki Kaisha Information processing system for obtaining read data of handwritten characters, training a model based on the characters, and producing a font for printing using the model
JP7208771B2 (en) 2018-11-22 2023-01-19 キヤノン株式会社 Information processing apparatus, information processing method and program, and image forming system

Similar Documents

Publication Publication Date Title
Voynov et al. Sketch-guided text-to-image diffusion models
Jiang et al. Scfont: Structure-guided chinese font generation via deep stacked networks
JP7474587B2 (en) Method and system for information extraction from document images using interactive interface and database queries - Patents.com
CN112308763A (en) Generating a composite digital image using a neural network with a dual stream encoder architecture
US20120133664A1 (en) System and method for painterly rendering based on image parsing
US10970889B2 (en) Stroke prediction for stylized drawings based on prior strokes and reference image
WO2022028313A1 (en) Method and device for image generation and colorization
Sasaki et al. Learning to restore deteriorated line drawing
Li et al. Automatic tongue image segmentation for real-time remote diagnosis
Pondenkandath et al. Historical document synthesis with generative adversarial networks
Ko et al. SKFont: skeleton-driven Korean font generator with conditional deep adversarial networks
JP4664023B2 (en) Tetrahedral mesh generator for analysis
Cai et al. Semantic object removal with convolutional neural network feature-based inpainting approach
JP2011022429A (en) Writing brush font creating method and writing brush font creating program
Lee et al. The surprisingly straightforward scene text removal method with gated attention and region of interest generation: A comprehensive prominent model analysis
Sangeetha et al. Combined structure and texture image inpainting algorithm for natural scene image completion
Fayyaz et al. Textile design generation using GANs
Su et al. Vectorization of raster manga by deep reinforcement learning
Xiao et al. Remote sensing image super-resolution via cross-scale hierarchical transformer
Jiang et al. Autodir: Automatic all-in-one image restoration with latent diffusion
Mobini et al. Stargan based facial expression transfer for anime characters
Zhang et al. A broad generative network for two-stage image outpainting
Suzuki The universal measure for general sources and its application to MDL/Bayesian criteria
Li et al. Multiple Auxiliary Networks for Single Blind Image Deblurring
Ashwini et al. Enhancing the Resolution of Ancient Artworks using Generative Adversarial Networks