JP2021114083A - Image generation device and image generation method - Google Patents

Image generation device and image generation method Download PDF

Info

Publication number
JP2021114083A
JP2021114083A JP2020005948A JP2020005948A JP2021114083A JP 2021114083 A JP2021114083 A JP 2021114083A JP 2020005948 A JP2020005948 A JP 2020005948A JP 2020005948 A JP2020005948 A JP 2020005948A JP 2021114083 A JP2021114083 A JP 2021114083A
Authority
JP
Japan
Prior art keywords
image
adjustment
contour line
unit
adjustment method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020005948A
Other languages
Japanese (ja)
Inventor
裕紀 進藤
Yuki Shindo
裕紀 進藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020005948A priority Critical patent/JP2021114083A/en
Publication of JP2021114083A publication Critical patent/JP2021114083A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To easily perform optimum adjustment to a coloring image.SOLUTION: An image generation device includes an image data acquisition part 101 for acquiring image data, a contour line image creation part 1032 for creating a contour line image obtained by extracting the contour line of the image data acquired by the image data acquisition part 101, a line density calculation part 1031 for dividing the contour line image created by the contour line image creation part 1032 into predetermined division areas and calculating a line density for each division area, an adjustment method decision part 1033 for deciding an adjustment method for the contour line image on the basis of the line density for each division area calculated by the line density calculation part 1031, and an adjustment execution part 1034 for adjusting the contour line image by using the adjustment method decided by the adjustment method decision part 1033.SELECTED DRAWING: Figure 1

Description

本発明は、画像生成装置および画像生成方法に関する。 The present invention relates to an image generator and an image generation method.

プリンタ等の印刷装置において、画像データからぬり絵画像を作成し、印刷する技術が考えられており、このような技術は特許文献1に記載されている。 In a printing device such as a printer, a technique of creating a colored picture image from image data and printing the image is considered, and such a technique is described in Patent Document 1.

特開2009−32178号公報Japanese Unexamined Patent Publication No. 2009-32178

特許文献1に記載された技術においては、線の濃さ等の調整をその画像一律に行う。そのため、部分に応じて線の濃淡を表現するというぬり絵画像特有の調整を行うことができず、ぬり絵画像に対して最適な調整を行うことができないおそれがある。 In the technique described in Patent Document 1, the line density and the like are adjusted uniformly for the image. Therefore, it is not possible to perform the adjustment peculiar to the coloring image, which expresses the shading of the line according to the portion, and there is a possibility that the optimum adjustment cannot be made for the coloring image.

本発明の目的は、ぬり絵画像に対して最適な調整を容易に行うことができる画像生成装置および画像生成方法を提供することである。 An object of the present invention is to provide an image generation device and an image generation method capable of easily performing optimum adjustment for a coloring image.

本発明の画像生成装置は、
画像データを取得する画像データ取得部と、
前記画像データ取得部が取得した画像データの輪郭線を抽出した輪郭線画像を作成する輪郭線作成部と、
前記輪郭線作成部が作成した輪郭線画像を所定の分割領域に分割し、前記分割領域ごとの線密度を算出する線密度算出部と、
前記線密度算出部が算出した前記分割領域ごとの線密度に基づいて、前記輪郭線画像に対する調整方法を決定する調整法決定部と、
前記調整法決定部が決定した調整方法を用いて前記輪郭線画像を調整する調整実行部とを有する。
The image generator of the present invention
The image data acquisition unit that acquires image data and
A contour line creation unit that creates a contour line image by extracting the contour lines of the image data acquired by the image data acquisition unit, and a contour line creation unit.
A line density calculation unit that divides the contour line image created by the contour line creation unit into predetermined division regions and calculates the linear density for each division region.
An adjustment method determination unit that determines an adjustment method for the contour line image based on the linear density for each divided region calculated by the linear density calculation unit.
It has an adjustment execution unit that adjusts the contour line image by using the adjustment method determined by the adjustment method determination unit.

本発明によれば、ぬり絵画像に対して最適な調整を容易に行うことができる。 According to the present invention, optimum adjustment can be easily performed on a coloring image.

本発明の画像生成装置の実施例1における構成図である。It is a block diagram in Example 1 of the image generation apparatus of this invention. 画像データ取得部が取得した画像データの例を示す図である。It is a figure which shows the example of the image data acquired by the image data acquisition unit. 画像制御部が行う処理を説明するためのフローチャートである。It is a flowchart for demonstrating the process performed by an image control unit. 線密度算出部が画像データを分割した分割領域を示す図である。It is a figure which shows the division area which divided the image data by a linear density calculation part. 図2に示した画像データを分割した分割領域の一例を示す図である。It is a figure which shows an example of the division area which divided the image data shown in FIG. 調整方法決定部が設定する操作インタフェイスの表示の一例を示す図である。It is a figure which shows an example of the display of the operation interface set by the adjustment method determination part. ステップS205の処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the details of the process of step S205. 表示部が表示するプレビュー画面の一例を示す図である。It is a figure which shows an example of the preview screen which a display part displays. 画素調整反映度を算出する処理を説明するための図である。It is a figure for demonstrating the process of calculating the pixel adjustment reflection degree. プレビュー画面と操作インタフェイスとの表示の一例を示す図である。It is a figure which shows an example of the display of a preview screen and an operation interface. ステップS703の処理の詳細を説明するためのフローチャートである。It is a flowchart for demonstrating the details of the process of step S703. 本実施例における画像制御部の処理を説明するためのフローチャートである。It is a flowchart for demonstrating the processing of the image control part in this Example. ぬり絵画像についてオブジェクトを特定した場合の処理を説明するための図である。It is a figure for demonstrating the process when the object is specified about the coloring image. ステップS1204で表示される操作インタフェイスの一例を示す図である。It is a figure which shows an example of the operation interface displayed in step S1204. ステップS1204で表示される操作インタフェイスの他の例を示す図である。It is a figure which shows another example of the operation interface displayed in step S1204.

以下、本発明の実施の形態について図面を用いて詳細に説明する。なお、この実施の形態に記載されている構成要素は、本発明を構成する要素の例として挙げるものであり、この発明の範囲をそれらのみに限定するものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. The components described in this embodiment are given as examples of the components constituting the present invention, and the scope of the present invention is not limited to them.

(実施例1)
図1は、本発明の画像生成装置の実施例1における構成図である。図1に示す画像生成装置100は、画像データ取得部101と、表示部102と、画像制御部103と、画像印刷部104と、MPU105と、ROM106と、RAM107とを有する。また、これらの構成要素が内部バス108を介して接続されている。
画像データ取得部101は、ぬり絵画像の元となる画像データを外部の装置から取得する外部インタフェイス(I/F)部である。例えば、画像データ取得部101は、メモリカードやスキャナから画像データを取得する。
表示部102は、調整するぬり絵画像のプレビュー画面を表示するディスプレイである。また、表示部102は、ぬり絵画像をユーザ調整するための操作画面である操作インタフェイスを表示する。なお、ぬり絵画像とは、元の画像データに含まれる対象物の輪郭等を抽出して表現した、ぬり絵(色入れ)を行うためのモノクロの画像である。元の画像データからぬり絵画像を作成する具体的な方法については後述する。
画像制御部103は、ぬり絵画像を作成する際に実行される。画像制御部103では、ぬり絵画像の元の画像を画像データ取得部101から取得し、取得した画像の分割領域毎の線密度を算出し、取得した画像に応じたユーザ調整を行うための操作インタフェイスを設定しユーザ調整を行う。画像制御部103は図1に示すように、線密度算出部1031と、輪郭線画像作成部1032と、調整方法決定部1033と、調整実行部1034とを有する。これらの構成要素の動作の詳細は後述する。
画像印刷部104は、画像制御部103がユーザ調整を行い作成したぬり絵画像を印刷する。画像印刷部104は、画像生成装置100が外部からユーザが印刷指示を行うための所定の操作を受け付けた場合、画像制御部103が作成したぬり絵画像の印刷を実行する。
MPU105は、プログラムを用いて画像生成装置100の制御を行うプロセッサである。
ROM106は、MPU105で動作するプログラムや恒久的データを保存するためのメモリである。
RAM107は、電源をオフした場合に揮発してしまうようなデータを保持する書き換え可能な作業用メモリである。
(Example 1)
FIG. 1 is a configuration diagram of the image generator of the present invention according to the first embodiment. The image generation device 100 shown in FIG. 1 includes an image data acquisition unit 101, a display unit 102, an image control unit 103, an image printing unit 104, an MPU 105, a ROM 106, and a RAM 107. Further, these components are connected via the internal bus 108.
The image data acquisition unit 101 is an external interface (I / F) unit that acquires image data that is the source of a coloring image from an external device. For example, the image data acquisition unit 101 acquires image data from a memory card or a scanner.
The display unit 102 is a display for displaying a preview screen of the coloring image to be adjusted. In addition, the display unit 102 displays an operation interface, which is an operation screen for adjusting the coloring image by the user. The coloring image is a monochrome image for performing coloring (coloring), which is expressed by extracting the outline of an object included in the original image data. A specific method for creating a coloring image from the original image data will be described later.
The image control unit 103 is executed when creating a coloring image. The image control unit 103 is an operation for acquiring the original image of the color painting image from the image data acquisition unit 101, calculating the linear density for each divided region of the acquired image, and performing user adjustment according to the acquired image. Set the interface and make user adjustments. As shown in FIG. 1, the image control unit 103 includes a linear density calculation unit 1031, a contour line image creation unit 1032, an adjustment method determination unit 1033, and an adjustment execution unit 1034. The details of the operation of these components will be described later.
The image printing unit 104 prints a coloring image created by the image control unit 103 after making user adjustments. When the image generation device 100 receives a predetermined operation for the user to give a print instruction from the outside, the image printing unit 104 executes printing of the coloring picture image created by the image control unit 103.
The MPU 105 is a processor that controls the image generator 100 by using a program.
The ROM 106 is a memory for storing a program running on the MPU 105 and permanent data.
The RAM 107 is a rewritable working memory that holds data that volatilizes when the power is turned off.

以下に、図1に示した画像制御部103の処理の詳細を説明する。図2は、画像データ取得部101が取得した、ぬり絵画像の元となる画像データの例を示す図である。図2(a)は、単純な輪郭線のみで表されるイラスト画像の画像データの例を示す図である。図2(b)は、山や雲のような自然物や建物のような人工物を含み、輪郭線だけでなく山の葉の線や建物の細かなディテールを表す線を含む自然画の画像データの例を示す図である。なお、図2には着色が施されていないが、実際の画像データはカラー写真や絵画等であって、着色が施されているものである。なお、元となる画像データには、着色が施されていないモノクロの画像データも含まれる。
画像データが図2(a)に示すようなイラスト画像である場合、単純な輪郭線でのみ構成されることが多い。そのため、ぬり絵画像の線の濃淡等をユーザ調整する際は画像データ一律(以下、画面一律と称する)で実施する。一方、画像データが図2(b)に示すような自然画である場合、単純な輪郭線だけでなく、自然物や人工物のディテールを表す細かな線が多く存在するが、このような細かな線はぬり絵画像には不要な線である。そのため、図2(b)に示すような自然画に対して、図2(a)に示すようなイラスト画像と同様にユーザ調整を画面一律で実施した場合、輪郭線を濃くすると不要な線も濃くなる。また、不要な線を薄くすると輪郭線も薄くなる。そのため、ぬり絵画像に対してユーザ調整する際にトレードオフが生じる場合がある。
The details of the processing of the image control unit 103 shown in FIG. 1 will be described below. FIG. 2 is a diagram showing an example of image data that is the source of the coloring image acquired by the image data acquisition unit 101. FIG. 2A is a diagram showing an example of image data of an illustration image represented only by a simple contour line. FIG. 2B is image data of a natural image including natural objects such as mountains and clouds and artificial objects such as buildings, and includes not only contour lines but also lines of mountain leaves and lines representing fine details of buildings. It is a figure which shows the example of. Although FIG. 2 is not colored, the actual image data is a color photograph, a painting, or the like, and is colored. The original image data also includes monochrome image data that has not been colored.
When the image data is an illustration image as shown in FIG. 2A, it is often composed only of simple contour lines. Therefore, when the user adjusts the shading of the lines of the coloring image, the image data is uniformly (hereinafter referred to as the screen uniform). On the other hand, when the image data is a natural image as shown in FIG. 2B, there are many fine lines representing the details of natural objects and artificial objects in addition to simple contour lines. Lines are unnecessary lines for coloring images. Therefore, when the user adjustment is performed uniformly on the screen as in the illustration image shown in FIG. 2 (a) for the natural image as shown in FIG. 2 (b), if the contour line is darkened, unnecessary lines may be generated. It gets darker. Moreover, when unnecessary lines are thinned, the contour lines are also thinned. Therefore, a trade-off may occur when the user adjusts the coloring image.

そこで、本実施例では、ぬり絵画像の元の画像が図2(b)に示すような輪郭線とぬり絵に不要な線とが混在する場合、画面一律で調整を行う操作インタフェイスと、ぬり絵に不要な線を個別に調整を行う操作インタフェイスとを設ける。その結果、ユーザ調整時のトレードオフを軽減する。 Therefore, in this embodiment, when the original image of the coloring image has contour lines as shown in FIG. 2B and lines unnecessary for the coloring image, an operation interface for uniformly adjusting the screen and an operation interface are used. An operation interface is provided to individually adjust unnecessary lines in the coloring book. As a result, the trade-off at the time of user adjustment is reduced.

図3は、図1に示した画像制御部103が行う処理の一例を説明するためのフローチャートである。まず、ステップS201にて、画像制御部103は、画像データ取得部101が取得した画像データを読み込む。この画像データは、作成するぬり絵画像の元となる画像を示すデータである。また、本実施例において、読み込む画像データはRGBデータとする。続いて、ステップS202にて、輪郭線作成部である輪郭線画像作成部1032が、ステップS201で読み込んだ画像データから輪郭線画像であるぬり絵画像を作成する。つまり、輪郭線画像作成部1032は、ステップS201で読み込んだ画像データの輪郭線を抽出した輪郭線画像を作成する。本実施例では、輪郭線画像作成部1032は、ステップS201で読み込んだ画像データにフィルタ処理を施して作成したエッジ画像をぬり絵画像とする。具体的には、輪郭線画像作成部1032は、読み込んだぬり絵画像の元となる画像データのRGBデータをYCbCrデータへ変換し、輝度値Yで色差成分0のモノクロ画像へ変換する。そして、輪郭線画像作成部1032は、変換後のモノクロ画像から画素毎の輝度値Yに対してフィルタ処理を行い、エッジ抽出した画像をぬり絵画像として作成する。この時のフィルタの種類としては、3×3ピクセルや5×5ピクセルのラプラシアンフィルタが用いられる。また、ぬり絵画像の作成方法は上記方法に限らず、注目画素近辺の画素との輝度値の差からエッジ抽出する等の方法でも良い。
すると、ステップS203にて、線密度算出部1031が、輪郭線画像作成部1032が作成したぬり絵画像を複数の領域に分割し、分割領域毎の線密度を算出する。本実施例では、線密度算出部1031は、ステップS202で輪郭線画像作成部1032が作成したぬり絵画像において画素値が大きな画素を画像中の線と判断する。そのため、ステップS203では、線密度算出部1031は、分割領域毎に所定の閾値以上の値である画素は線であると判定して領域毎に積算し、積算した値を分割領域の総画素数で除算した値を線密度として算出する。また、線密度の算出方法は、上述した方法に限らず、エッジ画像の平均値やエッジヒストグラムの画素数と重みをつけて積算して算出する方法等でも良い。
FIG. 3 is a flowchart for explaining an example of the processing performed by the image control unit 103 shown in FIG. First, in step S201, the image control unit 103 reads the image data acquired by the image data acquisition unit 101. This image data is data indicating an image that is the source of the coloring image to be created. Further, in this embodiment, the image data to be read is RGB data. Subsequently, in step S202, the contour line image creation unit 1032, which is the contour line creation unit, creates a coloring image which is a contour line image from the image data read in step S201. That is, the contour line image creation unit 1032 creates a contour line image obtained by extracting the contour lines of the image data read in step S201. In this embodiment, the contour line image creation unit 1032 uses the edge image created by filtering the image data read in step S201 as a coloring image. Specifically, the contour line image creation unit 1032 converts the RGB data of the image data that is the source of the read coloring image into YCbCr data, and converts it into a monochrome image having a luminance value Y and a color difference component of 0. Then, the contour line image creation unit 1032 performs a filter process on the brightness value Y for each pixel from the converted monochrome image, and creates an image with edge extraction as a coloring image. As the type of filter at this time, a 3 × 3 pixel or 5 × 5 pixel Laplacian filter is used. Further, the method for creating the coloring image is not limited to the above method, and a method such as edge extraction from the difference in the brightness value with the pixel in the vicinity of the pixel of interest may be used.
Then, in step S203, the linear density calculation unit 1031 divides the coloring image created by the contour line image creation unit 1032 into a plurality of regions, and calculates the linear density for each divided region. In this embodiment, the linear density calculation unit 1031 determines that a pixel having a large pixel value in the coloring image created by the contour line image creation unit 1032 in step S202 is a line in the image. Therefore, in step S203, the linear density calculation unit 1031 determines that the pixels having a value equal to or higher than a predetermined threshold value for each divided region are lines, and integrates the integrated values for each region, and the integrated value is the total number of pixels in the divided region. The value divided by is calculated as the linear density. Further, the method of calculating the linear density is not limited to the above-mentioned method, and a method of adding weights to the average value of the edge image and the number of pixels of the edge histogram and calculating the linear density may be used.

図4は、図1に示した線密度算出部1031が画像データを分割した分割領域の一例を示す図である。線密度算出部1031は、ステップS202で輪郭線画像作成部1032が作成したぬり絵画像を図4に示すように横10×縦10=100個の単位領域d[0][0]〜d[9][9]に分割する。そして、線密度算出部1031は、単位領域毎に線密度lRate[0][0]〜lRate[9][9]を算出する。線密度lRateは、0〜100の範囲の値であり、0の場合は線が存在しないことを表し、値が大きい(線密度が高い)ほど多くの線が存在することを表す。以下、分割されたそれぞれの単位領域を分割領域と称する。 FIG. 4 is a diagram showing an example of a division region in which the linear density calculation unit 1031 shown in FIG. 1 divides the image data. The linear density calculation unit 1031 displays the coloring image created by the contour line image creation unit 1032 in step S202 as shown in FIG. 4 in units of 10 horizontal × 10 vertical = 100 unit areas d [0] [0] to d [. 9] Divide into [9]. Then, the linear density calculation unit 1031 calculates the linear densities lRate [0] [0] to lRate [9] [9] for each unit region. The linear density lRate is a value in the range of 0 to 100, and when it is 0, it means that there are no lines, and the larger the value (the higher the linear density), the more lines are present. Hereinafter, each divided unit area will be referred to as a divided area.

図5は、図1に示した線密度算出部1031が図2に示した画像データを分割した分割領域の一例を示す図である。線密度算出部1031が、図2(a)に示すようなイラスト画像を分割領域に分割すると、図5(a)に示すようになる。図5(a)において、線が存在しない分割領域d[9][0]の線密度lRate[0][0]は、例えば0のように非常に低い値になる。また、オブジェクトの輪郭線が存在する分割領域d[1][3]の線密度lRate[1][3]は0よりも大きな値になる。線密度算出部1031が、図2(b)に示すような自然画を分割領域に分割すると、図5(b)に示すようになる。図5(b)において、山の葉のようなぬり絵に不要な線のみの分割領域d[1][9]の線密度lRate[1][9]は非常に高い値になる。また、山の輪郭線と葉の不要な線を含む分割領域d[0][5]の線密度lRate[0][5]や、建物の多くの輪郭線を含む分割領域d[5][8]の線密度lRate[5][8]は中程度の値になる。 FIG. 5 is a diagram showing an example of a divided region in which the linear density calculation unit 1031 shown in FIG. 1 divides the image data shown in FIG. 2. When the linear density calculation unit 1031 divides the illustration image as shown in FIG. 2 (a) into the divided regions, it becomes as shown in FIG. 5 (a). In FIG. 5A, the linear density lRate [0] [0] of the divided region d [9] [0] in which the line does not exist has a very low value such as 0. Further, the linear density lRate [1] [3] of the divided region d [1] [3] in which the contour line of the object exists becomes a value larger than 0. When the linear density calculation unit 1031 divides the natural image as shown in FIG. 2 (b) into the divided regions, it becomes as shown in FIG. 5 (b). In FIG. 5B, the linear densities lRate [1] [9] of the divided regions d [1] [9] containing only lines unnecessary for coloring such as mountain leaves have very high values. In addition, the linear density lRate [0] [5] of the divided area d [0] [5] including the contour line of the mountain and the unnecessary line of the leaf, and the divided area d [5] [5] including many contour lines of the building. The linear density lRate [5] [8] of 8] has a medium value.

続いて、ステップS204にて、調整法決定部である調整方法決定部1033が、ステップS203で線密度算出部1031が算出した分割領域毎の線密度lRateに基づいて、ぬり絵画像のユーザ調整を実施する際の操作インタフェイスを設定する。ステップS204では、画像データが図2(a)に示すようなイラスト画像の場合、調整方法決定部1033は、画像データ(画面)一律で線の調整を行うための操作インタフェイスを表示部102に表示させる。画像データが図2(b)に示すような自然画の場合、調整方法決定部1033は、線が多い箇所を個別に調整するための操作インタフェイスも表示部102に表示させ、ぬり絵に不要な箇所に対して個別に調整できるようにする。 Subsequently, in step S204, the adjustment method determination unit 1033, which is the adjustment method determination unit, adjusts the user of the coloring image based on the linear density lRate for each division region calculated by the linear density calculation unit 1031 in step S203. Set the operation interface when performing. In step S204, when the image data is an illustration image as shown in FIG. 2A, the adjustment method determination unit 1033 provides the display unit 102 with an operation interface for uniformly adjusting the line on the image data (screen). Display it. When the image data is a natural image as shown in FIG. 2 (b), the adjustment method determination unit 1033 also displays an operation interface for individually adjusting a portion having many lines on the display unit 102, which is unnecessary for coloring. Make it possible to make individual adjustments for various parts.

具体的には、全ての分割領域dの線密度lRateが閾値th1以下の場合、線が多い箇所がないということなので、不要な線を含む箇所が存在しないと判定できる。そのため、調整方法決定部1033は、その画像データは図2(a)に示すようなイラスト画像であると判定し、画面一律で線の調整を行うための操作インタフェイスを設定する。
図6は、図1に示した調整方法決定部1033が設定する操作インタフェイスの表示の一例を示す図である。図6(a)は、画面一律の調整を行うための操作インタフェイスの一例を示す図である。図6(a)において、調整バー601を右方向へ移動させた場合、ぬり絵画像の線が濃くなり、左方向へ移動させた場合は、ぬり絵画像の線が薄くなる。調整方法決定部1033は、操作インタフェイスを表示部102に表示させる。このとき、表示部102がタッチパネル機能を具備していれば、ユーザの表示部102へのタッチ操作に基づいて、調整バー601が右方向または左方向へ移動する。また、例えば、マウスやキーボード等の他の入力手段が画像生成装置100に接続または具備されている場合、その入力手段がユーザから受け付けた入力に基づいて、調整バー601が右方向または左方向へ移動する。このような外部からの入力操作を受け付ける要素を入力部とする。
Specifically, when the linear density lRate of all the division regions d is the threshold value th1 or less, it can be determined that there are no locations containing unnecessary lines because there are no locations with many lines. Therefore, the adjustment method determination unit 1033 determines that the image data is an illustration image as shown in FIG. 2A, and sets an operation interface for uniformly adjusting the lines on the screen.
FIG. 6 is a diagram showing an example of a display of the operation interface set by the adjustment method determination unit 1033 shown in FIG. FIG. 6A is a diagram showing an example of an operation interface for making uniform adjustments on the screen. In FIG. 6A, when the adjustment bar 601 is moved to the right, the line of the coloring image becomes darker, and when it is moved to the left, the line of the coloring image becomes lighter. The adjustment method determination unit 1033 causes the display unit 102 to display the operation interface. At this time, if the display unit 102 has a touch panel function, the adjustment bar 601 moves to the right or left based on the user's touch operation on the display unit 102. Further, for example, when another input means such as a mouse or a keyboard is connected to or provided in the image generation device 100, the adjustment bar 601 moves to the right or left based on the input received from the user by the input means. Moving. An element that accepts such an input operation from the outside is used as an input unit.

一方、処理中のぬり絵画像中に、線密度lRateが閾値th1よりも高い分割領域dが存在する場合、不要な線を含む箇所が存在する画像と判定できる。そのため、調整方法決定部1033は、その画像データは図2(b)に示すような自然画である判定し、個別に線の調整を行うための操作インタフェイスを設定する。
図6(b)は、個別に線の調整を行うための操作インタフェイスの表示の一例を示す図である。図6(b)に示した調整バー602は、図6(a)に示した調整バー601と同様に画面一律でぬり絵画像の線の濃さを調整するためのものである。また、図6(b)に示した調整バー603を左右方向へ移動させることで、ぬり絵画像に不要な線の箇所に対して線の濃さを調整する。例えば、調整バー602を左右方向へ移動させて画面(画像データ)全体に対する一律の調整を行った後、個別の調整を実施するための調整バー603を左右方向へ移動させて、ぬり絵画像に不要な箇所に対する調整を行う。調整バー602,603の移動は、調整バー601の移動と同様の操作で行われる。
On the other hand, when the divided region d having a linear density lRate higher than the threshold value th1 exists in the coloring image being processed, it can be determined that the image includes a portion including an unnecessary line. Therefore, the adjustment method determination unit 1033 determines that the image data is a natural image as shown in FIG. 2B, and sets an operation interface for individually adjusting the lines.
FIG. 6B is a diagram showing an example of a display of an operation interface for individually adjusting lines. The adjustment bar 602 shown in FIG. 6B is for adjusting the line density of the coloring image uniformly on the screen in the same manner as the adjustment bar 601 shown in FIG. 6A. Further, by moving the adjustment bar 603 shown in FIG. 6B in the left-right direction, the line density is adjusted with respect to the portion of the line unnecessary for the coloring image. For example, after moving the adjustment bar 602 in the left-right direction to make uniform adjustments to the entire screen (image data), the adjustment bar 603 for performing individual adjustments is moved in the left-right direction to create a coloring image. Make adjustments for unnecessary parts. The movement of the adjustment bars 602 and 603 is performed in the same operation as the movement of the adjustment bar 601.

また、本ステップにおいて、ぬり絵画像の元となる画像データが、図2(a)に示すようなイラスト画像であるか、図2(b)に示すような自然画であるかを判定する方法は、上述した線密度を用いた方法に限らない。例えば、ステップS202で輪郭線画像作成部1032が作成したぬり絵画像中の輪郭線が、直線や円のような単純な線が多い場合は、その画像データはイラスト画像であると判定する方法等であっても良い。 Further, in this step, a method of determining whether the image data that is the source of the coloring image is an illustration image as shown in FIG. 2A or a natural image as shown in FIG. 2B. Is not limited to the method using the linear density described above. For example, if the contour line in the coloring image created by the contour line image creation unit 1032 in step S202 has many simple lines such as straight lines and circles, a method of determining that the image data is an illustration image, etc. It may be.

続いて、ステップS205にて、調整方法決定部1033および調整実行部1034は、ステップS204で調整方法決定部1033が設定した操作インタフェイスに基づいて、ステップS202で輪郭線画像作成部1032が作成したぬり絵画像の調整を実施する。本実施例では、ぬり絵画像の元となる画像データがイラスト画像である場合、画面一律で線の調整を行うため、調整方法決定部1033は操作インタフェイスを用いたユーザ調整をそのまま反映する。一方、ぬり絵画像の元となる画像データが自然画である場合は、線が多い箇所において個別に調整を行うため、調整方法決定部1033は操作インタフェイスを用いたユーザ調整を画素毎にどの程度反映するかを算出する必要がある。そのため、ステップS205では、調整方法決定部1033は、個別に線の調整を行う場合は画像データ中の各分割領域、画素毎にユーザ調整をどの程度反映するかを算出し、その結果に応じてユーザ調整した画像を作成する。具体的には、調整方法決定部1033は、線密度lRateに基づいて、分割領域d毎にユーザ調整を反映する度合いである領域調整反映度aRateを算出する。そして、調整方法決定部1033は、領域反映度である領域調整反映度aRateに基づいて、画素毎にユーザ調整を反映する度合いである画素調整反映度pRateを算出し、ぬり絵画像の画素毎にユーザ調整を反映した画像を作成する。 Subsequently, in step S205, the adjustment method determination unit 1033 and the adjustment execution unit 1034 were created by the contour line image creation unit 1032 in step S202 based on the operation interface set by the adjustment method determination unit 1033 in step S204. Adjust the coloring image. In this embodiment, when the image data that is the source of the coloring image is an illustration image, the line is adjusted uniformly on the screen, so that the adjustment method determination unit 1033 reflects the user adjustment using the operation interface as it is. On the other hand, when the image data that is the basis of the coloring image is a natural image, the adjustment method determination unit 1033 performs user adjustment using the operation interface for each pixel because the adjustment is performed individually in the place where there are many lines. It is necessary to calculate whether to reflect the degree. Therefore, in step S205, the adjustment method determination unit 1033 calculates how much the user adjustment is reflected for each divided area and pixel in the image data when the line is adjusted individually, and according to the result. Create a user-adjusted image. Specifically, the adjustment method determination unit 1033 calculates the area adjustment reflection degree aRate, which is the degree to which the user adjustment is reflected for each division area d, based on the linear density lRate. Then, the adjustment method determination unit 1033 calculates the pixel adjustment reflection degree pRate, which is the degree of reflecting the user adjustment for each pixel, based on the area adjustment reflection degree aRate, which is the area reflection degree, and calculates each pixel of the coloring image. Create an image that reflects user adjustments.

図7は、図3に示したフローチャートを用いて説明したステップS205の処理の詳細を説明するためのフローチャートである。図7では、ステップS204で調整方法決定部1033が設定した操作インタフェイスが画面一律の調整を行う操作インタフェイスか、ぬり絵画像に不要な線を個別に調整を行う操作インタフェイスかに応じて、ぬり絵画像の作成の処理が異なる。図7において、ステップS204で調整方法決定部1033が画面一律の調整を行う操作インタフェイスを設定した場合、調整方法決定部1033は、操作インタフェイスを用いたユーザ調整をそのまま反映する。一方、ステップS204で調整方法決定部1033がぬり絵画像に不要な線を個別に調整を行う操作インタフェイスを設定した場合は、調整方法決定部1033は、ぬり絵画像の画素毎に画素反映度である画素調整反映度pRateを算出する。そして、調整方法決定部1033は、画素調整反映度pRateに応じてぬり絵画像の画素毎にユーザ調整を反映する。
詳細を説明する。まず、ステップS701で、調整方法決定部1033は、画面一律で線の調整を行う操作インタフェイスを設定したかどうかを判定する。調整方法決定部1033が画面一律で線の調整を行う操作インタフェイスを設定した場合、ステップS702にて、調整実行部1034は、画面一律で線の調整を行う操作インタフェイスを用いて、ぬり絵画像に対してユーザ調整を実施して、画像を作成する。この時、画像制御部103(例えば、調整実行部1034)は、プレビュー画面と操作インタフェイスとを表示部102に表示させる。
図8は、図1に示した調整実行部1034が表示部102に表示させたプレビュー画面の一例を示す図である。図8に示すように、表示部102は、ぬり絵画像に対してユーザ調整を実施したプレビュー画面と、図6(a)に示したような画面一律で線の調整を行うための操作インタフェイスとを表示する。また、表示部102は、ユーザ調整を実施したプレビュー画面と操作インタフェイスとを、例えば、一定周期等の所定のタイミングで切り替えて表示する。さらに、表示部102は、プレビュー画面と操作インタフェイスとの表示を切り替えるボタンを表示してボタンが選択(押下やタッチ等)される度に切り替えて表示したりしても良い。
FIG. 7 is a flowchart for explaining the details of the process of step S205 described with reference to the flowchart shown in FIG. In FIG. 7, depending on whether the operation interface set by the adjustment method determination unit 1033 in step S204 is an operation interface for uniformly adjusting the screen or an operation interface for individually adjusting unnecessary lines in the coloring image. , The process of creating a coloring image is different. In FIG. 7, when the adjustment method determination unit 1033 sets the operation interface for performing uniform screen adjustment in step S204, the adjustment method determination unit 1033 reflects the user adjustment using the operation interface as it is. On the other hand, when the adjustment method determination unit 1033 sets an operation interface for individually adjusting unnecessary lines in the coloring image in step S204, the adjustment method determination unit 1033 determines the pixel reflection degree for each pixel of the coloring image. The pixel adjustment reflection degree pRate is calculated. Then, the adjustment method determination unit 1033 reflects the user adjustment for each pixel of the coloring image according to the pixel adjustment reflection degree pRate.
The details will be described. First, in step S701, the adjustment method determination unit 1033 determines whether or not an operation interface for adjusting lines uniformly on the screen has been set. When the adjustment method determination unit 1033 sets the operation interface for adjusting the line uniformly on the screen, in step S702, the adjustment execution unit 1034 uses the operation interface for adjusting the line uniformly on the screen for coloring. User adjustments are made to the image to create the image. At this time, the image control unit 103 (for example, the adjustment execution unit 1034) causes the display unit 102 to display the preview screen and the operation interface.
FIG. 8 is a diagram showing an example of a preview screen displayed on the display unit 102 by the adjustment execution unit 1034 shown in FIG. As shown in FIG. 8, the display unit 102 has a preview screen in which user adjustments have been made to the coloring image, and an operation interface for uniformly adjusting lines as shown in FIG. 6A. And are displayed. Further, the display unit 102 switches and displays the preview screen on which the user adjustment has been performed and the operation interface at a predetermined timing such as a fixed cycle. Further, the display unit 102 may display a button for switching the display between the preview screen and the operation interface, and switch and display each time the button is selected (pressed, touched, etc.).

一方、調整方法決定部1033が画面一律で線の調整を行う操作インタフェイスを設定しなかった場合、ステップS703にて、調整方法決定部1033は、輪郭線毎に個別に調整を行うため、分割領域毎にユーザ調整を反映させる度合いを算出する。なお、このケースは、調整方法決定部1033が個別に輪郭線の調整を行う操作インタフェイスを設定した場合に相当する。調整方法決定部1033は、線密度算出部1031が算出した線密度lRate[0][0]〜[9][9]に基づいて、分割領域d[0][0]〜[9][9]に対してユーザの個別調整を反映する度合いである領域調整反映度aRate[0][0]〜[9][9]を算出する。本実施例では、ぬり絵画像に不要な線を個別にユーザ調整を行うため、ぬり絵画像に対して、画素毎にどの程度ユーザ調整を反映するかを算出する必要がある。そのため、本ステップで、調整方法決定部1033は、線密度lRateに基づいて、分割領域d毎にユーザ調整を反映する度合いを算出する。領域調整反映度aRateは、0〜100の範囲の値であり、値の大きさに応じて調整方法決定部1033はユーザの個別調整を反映する。例えば、領域調整反映度aRateが0である場合、調整方法決定部1033はユーザの個別調整を反映せず調整しても領域は反映しない。また、領域調整反映度aRateが100である場合、調整方法決定部1033はユーザの個別調整をそのまま反映する。また、領域調整反映度aRateが50である場合、調整方法決定部1033はユーザの個別調整を50%反映する設定方法を決定する。本実施例では、線密度lRateが高い場合、調整方法決定部1033は、ぬり絵画像に不要な線が多く含まれていると判定し、領域調整反映度aRateを高い値に設定し、個別の調整を反映する設定方法を決定する。そのため、領域調整反映度aRateが例えば100のような大きな値である場合、線の濃さが最も薄くなるようユーザ調整されると、調整実行部1034は、あらかじめ設定されている最も薄い濃さになるよう線を調整する。ここで、線の濃さを設定する数値として、小さな数値ほど濃さが薄く、大きな数値ほど濃さが濃いもので定義されている場合、最も薄い濃さは、最も小さな数値を設定することで実現でき、最も濃い濃さは、最も大きな値と設定することで実現できる。 On the other hand, when the adjustment method determination unit 1033 does not set the operation interface for adjusting the lines uniformly on the screen, the adjustment method determination unit 1033 adjusts each contour line individually in step S703, so that the adjustment method determination unit 1033 is divided. Calculate the degree to which the user adjustment is reflected for each area. In addition, this case corresponds to the case where the adjustment method determination unit 1033 sets the operation interface for individually adjusting the contour line. The adjustment method determination unit 1033 has divided regions d [0] [0] to [9] [9] based on the linear density lRate [0] [0] to [9] [9] calculated by the linear density calculation unit 1031. ], The area adjustment reflection degree aRate [0] [0] to [9] [9], which is the degree to reflect the individual adjustment of the user, is calculated. In this embodiment, since unnecessary lines are individually adjusted by the user in the coloring image, it is necessary to calculate how much the user adjustment is reflected for each pixel in the coloring image. Therefore, in this step, the adjustment method determination unit 1033 calculates the degree of reflecting the user adjustment for each division area d based on the linear density lRate. The area adjustment reflection degree aRate is a value in the range of 0 to 100, and the adjustment method determination unit 1033 reflects the individual adjustment of the user according to the magnitude of the value. For example, when the area adjustment reflection degree aRate is 0, the adjustment method determination unit 1033 does not reflect the individual adjustment of the user and does not reflect the area even if the adjustment is made. Further, when the area adjustment reflection degree aRate is 100, the adjustment method determination unit 1033 reflects the individual adjustment of the user as it is. Further, when the area adjustment reflection degree aRate is 50, the adjustment method determination unit 1033 determines a setting method that reflects 50% of the individual adjustment of the user. In this embodiment, when the linear density lRate is high, the adjustment method determination unit 1033 determines that the coloring image contains many unnecessary lines, sets the area adjustment reflection degree aRate to a high value, and sets each individual image. Determine the setting method that reflects the adjustment. Therefore, when the area adjustment reflection degree aRate is a large value such as 100, when the user is adjusted so that the line density is the lightest, the adjustment execution unit 1034 is set to the preset lightest density. Adjust the line so that it becomes. Here, as a numerical value for setting the line density, if a smaller numerical value is defined as a lighter darkness and a larger numerical value is defined as a darker numerical value, the lightest darkness is set by setting the smallest numerical value. It can be achieved, and the darkest density can be achieved by setting the largest value.

線密度lRateが低い場合、調整方法決定部1033は、ぬり絵画像に不要な線があまり含まれていないと判定し、個別の調整をあまり反映しない設定方法を決定する。そのため、領域調整反映度aRateは例えば0のような小さな値である場合、線の濃さが最も薄くなるようユーザ調整されても、調整方法決定部1033はユーザの調整を反映しない設定を決定する。線密度lRateの値が中程度である分割領域については、調整方法決定部1033は、周辺の(隣接する)分割領域の線密度lRateも用いて領域調整反映度aRateを算出する。線密度lRateの値が中程度である分割領域は、多くの輪郭線が含まれる場合と、輪郭線と不要な線とが混在する場合との2通りが考えられる。分割領域dに多くの輪郭線が含まれる場合、ぬり絵画像には必要な線であるため、調整方法決定部1033は、個別調整をしないよう領域調整反映度aRateには0のような小さな値を設定する。一方、分割領域dに輪郭線と不要な線とが混在する場合、必要な線と不要な線とが混在しているため、調整実行部1034が個別調整を行うと必要な線まで調整され、個別調整を行わないとぬり絵画像に不要な線が残ってしまう。そのため、本実施例では、調整実行部1034がユーザ調整を中程度反映することで、どちらの場合であっても不具合が生じないようにする。そのため、領域調整反映度aRateが50のような値となる場合、調整方法決定部1033がユーザ調整を50%反映する設定を決定するものであっても良い。この時、線の濃さが最も薄くなるようユーザ調整を行った場合は、調整実行部1034は、あらかじめ設定している最も薄くなる濃さに対して、50%の濃さになるよう線の濃さを調整する。
本ステップでは、判定対象の分割領域dの線密度lRateが中程度である場合、判定対象の分割領域dの周辺に線密度lRateが高い分割領域dが存在していると想定する。この場合、調整方法決定部1033は、判定対象の分割領域dに輪郭線と不要な線とが混在していると判定する。これは、ぬり絵画像に不要な線を含むオブジェクトは複数の分割領域dに渡って存在すると考えられ、判定対象の分割領域dの周辺に線密度lRateが高い分割領域dがあれば、不要な線を含むオブジェクトに属する分割領域dと判定できるためである。
When the linear density lRate is low, the adjustment method determination unit 1033 determines that the coloring image does not contain many unnecessary lines, and determines a setting method that does not reflect individual adjustments so much. Therefore, when the area adjustment reflection degree aRate is a small value such as 0, the adjustment method determination unit 1033 determines a setting that does not reflect the user's adjustment even if the user adjusts so that the line density becomes the thinnest. .. For the divided region where the value of the linear density lRate is medium, the adjustment method determining unit 1033 calculates the region adjustment reflection degree aRate using the linear density lRate of the peripheral (adjacent) divided region. There are two possible division regions in which the value of the linear density lRate is medium, that is, a case where many contour lines are included and a case where contour lines and unnecessary lines are mixed. When the divided area d includes many contour lines, it is a necessary line for the coloring image. Therefore, the adjustment method determination unit 1033 has a small value such as 0 for the area adjustment reflection degree aRate so as not to make individual adjustments. To set. On the other hand, when the contour line and the unnecessary line are mixed in the division area d, the necessary line and the unnecessary line are mixed. Therefore, when the adjustment execution unit 1034 makes individual adjustments, the necessary line is adjusted. If you do not make individual adjustments, unnecessary lines will remain in the coloring image. Therefore, in this embodiment, the adjustment execution unit 1034 reflects the user adjustment to a certain extent so that a problem does not occur in either case. Therefore, when the area adjustment reflection degree aRate becomes a value such as 50, the adjustment method determination unit 1033 may determine the setting that reflects the user adjustment by 50%. At this time, if the user adjusts the line so that the line density is the lightest, the adjustment execution unit 1034 sets the line so that the line density is 50% of the preset thinnest line density. Adjust the darkness.
In this step, when the linear density lRate of the division region d to be determined is medium, it is assumed that a division region d having a high linear density lRate exists around the division region d to be determined. In this case, the adjustment method determination unit 1033 determines that the contour line and the unnecessary line are mixed in the division area d to be determined. This is because it is considered that an object containing unnecessary lines in the coloring image exists over a plurality of division areas d, and if there is a division area d having a high linear density lRate around the division area d to be determined, it is unnecessary. This is because it can be determined that the division area d belongs to the object including the line.

また、判定対象の分割領域dの線密度lRateが中程度で、判定対象の分割領域dの周辺に線密度lRateが高い分割領域dが存在していない場合、調整方法決定部1033は、判定対象の分割領域dに多くの輪郭線のみが含まれていると判定する。これは、判定対象の分割領域dの周辺には線密度lRateが高い分割領域dが存在していないため、判定対象の分割領域dにはぬり絵画像に不要な線を含むオブジェクトは含まれないと判定できるためである。領域調整反映度aRateを算出する本ステップの詳細は後述する。 Further, when the linear density lRate of the division region d of the determination target is medium and the division region d having a high linear density lRate does not exist around the division region d of the determination target, the adjustment method determination unit 1033 determines the determination target. It is determined that only a large number of contour lines are included in the divided region d of. This is because there is no division area d having a high linear density lRate around the division area d to be determined, so that the division area d to be determined does not include an object containing unnecessary lines in the coloring image. This is because it can be determined. The details of this step of calculating the area adjustment reflection degree aRate will be described later.

続いて、ステップS704にて、調整方法決定部1033は、分割領域毎の領域調整反映度aRate[0][0]〜[9][9]に基づいて、画素毎に反映する度合いである画素調整反映度pRateを算出する。領域調整反映度aRateは、単位領域d毎に算出された値である。そのため、互いに隣接する分割領域であっても領域調整反映度aRateの値に大きな差があると、分割領域の境界でユーザ調整を反映する度合いが急激に変化し、輝度段差が生じる場合がある。例えば、山の葉のようにぬり絵に不要な線を含むオブジェクトが複数の分割領域dに渡って存在する場合、ある分割領域ではユーザ調整を100%反映し、その分割領域に隣接する分割領域ではユーザ調整を50%反映するとする。この場合、線の濃さを調整すると同じオブジェクト内であっても位置によってユーザ調整の反映度が異なるため、分割領域の境界で異なる線の濃さになり輝度段差が生じてしまう。そのため、本実施例では、分割領域dの領域調整反映度aRateを画素単位で補間して滑らかに変化するようにし、輝度段差を生じさせないようにする。 Subsequently, in step S704, the adjustment method determination unit 1033 reflects the pixel for each pixel based on the area adjustment reflection degree aRate [0] [0] to [9] [9] for each division area. The adjustment reflection degree pRate is calculated. The area adjustment reflection degree aRate is a value calculated for each unit area d. Therefore, if there is a large difference in the value of the area adjustment reflection degree aRate even in the divided areas adjacent to each other, the degree of reflecting the user adjustment suddenly changes at the boundary of the divided areas, and a brightness step may occur. For example, when an object containing unnecessary lines in a coloring book such as a mountain leaf exists over a plurality of division areas d, the division area reflects 100% of user adjustment in a certain division area and is adjacent to the division area. Now, let's assume that the user adjustment is reflected by 50%. In this case, if the line density is adjusted, the degree of reflection of the user adjustment differs depending on the position even within the same object, so that the line density differs at the boundary of the divided area, resulting in a luminance step. Therefore, in this embodiment, the area adjustment reflection degree aRate of the division area d is interpolated on a pixel-by-pixel basis so that the area is smoothly changed so as not to cause a luminance step.

図9は、分割領域Aに属する画素Pにおける画素調整反映度pRateを算出する処理を説明するための図である。画素Pは分割領域A内の右下領域に存在する画素である。そのため、画素調整反映度pRateは、画素Pが属する分割領域A、分割領域Aの右側に隣接する分割領域B、分割領域Aの下側に隣接する分割領域C、分割領域Aの右下側に隣接する分割領域Dのそれぞれの領域反映度aRateに基づいて算出される。なお、この算出には(式1)が使用される。
pRate=y×(x×aRateA+(1−x)×aRateB)
+(1−y)×(x×aRateC+(1−x)×aRateD) (式1)
(式1)において、aRateA,aRateB,aRateCおよびaRateDは分割領域A,B,CおよびDの領域調整反映度、xは横方向の合成率、yは縦方向の合成率を示す。また、合成率x,yは0.5から1の範囲の数値であり、対象画素が属する分割領域の中心からの距離に応じて決まる。例えば、画素Pが分割領域Aの中心に存在する場合、x=1、y=1とすることで、(式1)よりpRate=aRateAとなり、分割領域Aの領域調整反映度aRateAがそのまま適用される。また、合成率x、yはテーブルや数式から得られるものとする。本実施例では、(式1)を用いて画素の位置に応じて補間して算出した画素調整反映度pRateに基づいてユーザ調整を実施するため、輝度段差を発生させずに調整ができる。
FIG. 9 is a diagram for explaining a process of calculating the pixel adjustment reflection degree pRate in the pixel P belonging to the divided region A. The pixel P is a pixel existing in the lower right region in the divided region A. Therefore, the pixel adjustment reflection degree pRate is set in the division area A to which the pixel P belongs, the division area B adjacent to the right side of the division area A, the division area C adjacent to the lower side of the division area A, and the lower right side of the division area A. It is calculated based on each area reflection degree aRate of the adjacent division area D. In addition, (Equation 1) is used for this calculation.
pRate = y × (x × aRateA + (1-x) × aRateB)
+ (1-y) x (x x aRateC + (1-x) x aRateD) (Equation 1)
In (Equation 1), aRateA, aRateB, aRateC and aRateD indicate the region adjustment reflection degree of the divided regions A, B, C and D, x indicates the composition ratio in the horizontal direction, and y indicates the composition ratio in the vertical direction. The composition ratios x and y are numerical values in the range of 0.5 to 1, and are determined according to the distance from the center of the division region to which the target pixel belongs. For example, when the pixel P exists in the center of the division area A, by setting x = 1 and y = 1, pRate = aRateA from (Equation 1), and the area adjustment reflection degree aRateA of the division area A is applied as it is. NS. Further, it is assumed that the synthesis rates x and y can be obtained from a table or a mathematical formula. In this embodiment, since the user adjustment is performed based on the pixel adjustment reflection degree pRate calculated by interpolating according to the pixel position using (Equation 1), the adjustment can be performed without generating a luminance step.

続いて、ステップS705にて、調整実行部1034は、調整方法決定部1033が決定した調整方法を用いて、ぬり絵画像に対してユーザ調整を行う。この調整方法には、上述した線密度lRate、領域調整反映度aRateおよび画素調整反映度pRateを用いた処理が含まれる。調整実行部1034は、ぬり絵画像に不要な線を個別に線の調整を行う操作インタフェイスを用いてユーザ調整を行った画像を作成する。この時、画像制御部103は、プレビュー画面と個別に線の調整を行う操作インタフェイスとを表示部102に表示させる。 Subsequently, in step S705, the adjustment execution unit 1034 makes user adjustments to the coloring image using the adjustment method determined by the adjustment method determination unit 1033. This adjustment method includes processing using the above-mentioned linear density lRate, region adjustment reflection degree aRate, and pixel adjustment reflection degree pRate. The adjustment execution unit 1034 creates an image in which the user has adjusted using the operation interface for individually adjusting the unnecessary lines in the coloring image. At this time, the image control unit 103 causes the display unit 102 to display the preview screen and the operation interface for individually adjusting the lines.

図10は、表示部が表示するプレビュー画面と操作インタフェイスとの一例を示す図である。図10に示すように、ぬり絵画像に対してユーザ調整を実施したプレビュー画面と、図6(b)に示したような個別に線の調整を行う操作インタフェイスとが表示部102に表示される。また、図6(b)に示した操作インタフェイスを用いてぬり絵画像の線の濃さを調整する方法は、上述したように調整バー602を用いて画面一律で線の濃さを調整し、調整バー603を用いてぬり絵画像に不要な箇所を個別に調整する方法に限らない。例えば、調整バー602を用いた調整の際、画面一律の調整を行うのではなく、調整バー603を用いて個別に調整する箇所以外を、調整バー602を用いて調整する方法でも良い。調整バー602を用いて画面一律で線の濃さを調整する場合、全画面一律で調整を行う場合の操作インタフェイスの図6(a)に示した調整バー601と共通の調整を行うため、操作に共通性を持たせることができる。また、ぬり絵画像が自然画であって、ぬり絵画像に不要な線を含む箇所が存在していても、ユーザが個別に調整する必要がなく画面一律の調整のみで問題ないと判断する場合、調整バー602を用いた調整のみで対応できる。一方、調整バー602を用いて輪郭線個別に調整する箇所以外を調整する場合、ぬり絵画像に必要な線と不要な線とを互いに独立に調整できるため、容易にユーザ調整が可能になる。さらには、上述した2つの調整方法を切り替えても良い。例えば、ユーザが外部から2つの調整方法のどちらかを選択することが可能な構成であっても良いし、ぬり絵画像中の不要な線を含む箇所の面積に応じて切り替えたりしても良い。このように、ぬり絵画像に応じたユーザ調整を実現できる。 FIG. 10 is a diagram showing an example of a preview screen displayed by the display unit and an operation interface. As shown in FIG. 10, the preview screen in which the user adjustment is performed on the coloring image and the operation interface in which the line is individually adjusted as shown in FIG. 6B are displayed on the display unit 102. NS. Further, in the method of adjusting the line density of the coloring image using the operation interface shown in FIG. 6B, the line density is uniformly adjusted on the screen by using the adjustment bar 602 as described above. The method is not limited to the method of individually adjusting unnecessary parts in the coloring image by using the adjustment bar 603. For example, at the time of adjustment using the adjustment bar 602, instead of performing uniform adjustment on the screen, a method of adjusting using the adjustment bar 602 may be used except for the parts to be individually adjusted using the adjustment bar 603. When the line density is adjusted uniformly on the screen using the adjustment bar 602, the adjustment is performed in common with the adjustment bar 601 shown in FIG. 6A of the operation interface when the adjustment is performed uniformly on the entire screen. The operations can be made common. In addition, even if the coloring image is a natural image and there are places in the coloring image that include unnecessary lines, it is not necessary for the user to make individual adjustments, and it is judged that there is no problem with only uniform screen adjustment. , It can be dealt with only by the adjustment using the adjustment bar 602. On the other hand, when the adjustment bar 602 is used to make adjustments other than the individual contour line adjustments, the lines required for the coloring image and the unnecessary lines can be adjusted independently of each other, so that user adjustment can be easily performed. Furthermore, the above-mentioned two adjustment methods may be switched. For example, the configuration may be such that the user can select either of the two adjustment methods from the outside, or the switching may be performed according to the area of the portion including the unnecessary line in the coloring image. .. In this way, user adjustment according to the coloring image can be realized.

図11は、図7に示したフローチャートを用いて説明したステップS703の処理の詳細を説明するためのフローチャートである。図11を用いて説明する処理は、ぬり絵画像の元となる画像の各単位領域dの線密度lRateに基づいて、領域調整反映度aRateを算出する処理である。本実施例では、ぬり絵画像に不要な線を個別にユーザ調整を行う場合、調整方法決定部1033が、ぬり絵画像の画素毎にユーザ調整を反映する度合いを求める。そのため、調整方法決定部1033が、線密度lRateに応じて単位領域d毎にユーザ調整を反映する度合いである領域調整反映度aRateを算出する。 FIG. 11 is a flowchart for explaining the details of the process of step S703 described with reference to the flowchart shown in FIG. The process described with reference to FIG. 11 is a process of calculating the area adjustment reflection degree aRate based on the linear density lRate of each unit area d of the image that is the source of the coloring image. In this embodiment, when the user adjusts the unnecessary lines individually in the coloring image, the adjustment method determining unit 1033 determines the degree to which the user adjustment is reflected for each pixel of the coloring image. Therefore, the adjustment method determination unit 1033 calculates the area adjustment reflection degree aRate, which is the degree to which the user adjustment is reflected for each unit area d according to the linear density lRate.

ステップS1101にて、調整方法決定部1033は、画像データの全ての分割領域dに対して領域調整反映度aRateを算出したかどうかを判定する。全ての分割領域dに対して領域調整反映度aRateの算出が完了している場合は処理を終了する。一方、全ての分割領域dに対して領域調整反映度aRateの算出が完了していない場合、ステップS1102にて、領域調整反映度aRateの算出が完了していない任意の分割領域dの線密度lRateとあらかじめ設定された閾値th2とを比較する。線密度lRateが閾値th2以上である場合、調整方法決定部1033は、線密度lRateが高いため、当該分割領域dがぬり絵画像に不要な線のみが存在する分割領域dであると判定する。そして、ステップS1103にて、調整方法決定部1033は、個別調整を反映するように領域調整反映度aRateを100として算出して設定する。調整方法決定部1033は、ステップS1103の処理を行った後、ステップS1101の処理を行う。ここで、判定中の分割領域dはぬり絵画像に不要な線のみを含むと判定されるため、個別の調整が反映されるようにする。例えば、図5(b)に示した分割領域d[1][9]はぬり絵画像に不要な山の葉の輪郭線を多く含むため、線密度lRate[1][9]は高い値になる。そのため、調整方法決定部1033は、領域調整反映度aRate[1][9]は100として算出し、個別のユーザ調整を100%反映するように設定する。 In step S1101, the adjustment method determination unit 1033 determines whether or not the area adjustment reflection degree aRate has been calculated for all the divided areas d of the image data. When the calculation of the area adjustment reflection degree aRate is completed for all the divided areas d, the process ends. On the other hand, when the calculation of the area adjustment reflection degree aRate is not completed for all the division areas d, the linear density lRate of the arbitrary division area d for which the calculation of the area adjustment reflection degree aRate is not completed in step S1102. Is compared with the preset threshold value th2. When the line density lRate is equal to or higher than the threshold value th2, the adjustment method determining unit 1033 determines that the division area d is a division area d in which only unnecessary lines exist in the coloring image because the line density lRate is high. Then, in step S1103, the adjustment method determination unit 1033 calculates and sets the area adjustment reflection degree aRate as 100 so as to reflect the individual adjustment. The adjustment method determination unit 1033 performs the process of step S1101 after the process of step S1103. Here, since it is determined that the divided region d under determination contains only unnecessary lines in the coloring image, individual adjustments are reflected. For example, since the divided regions d [1] [9] shown in FIG. 5 (b) include many unnecessary contour lines of mountain leaves in the coloring image, the linear density lRate [1] [9] is set to a high value. Become. Therefore, the adjustment method determination unit 1033 calculates the area adjustment reflection degree aRate [1] [9] as 100, and sets the individual user adjustment to be reflected 100%.

一方、線密度lRateが閾値th2未満である場合、調整方法決定部1033は、調整方法決定部1033は、判定中の分割領域dの線密度lRateとあらかじめ設定された閾値th3とを比較する。閾値th3は、閾値th2よりも小さな値である。線密度lRateが閾値th3以下である場合、調整方法決定部1033は、当該分割領域dがぬり絵画像に不要な線が存在せず輪郭線のみが存在する分割領域dであると判定する。そして、ステップS1105にて、調整方法決定部1033は、個別調整を反映しないように領域調整反映度aRateを0として算出して設定する。調整方法決定部1033は、ステップS1105の処理を行った後、ステップS1101の処理を行う。ここで、判定中の単位領域dはぬり絵画像に必要な線のみを含むと判定されるため、個別の調整が反映されないようにする。例えば、図5(b)に示した分割領域d[6][7]はぬり絵画像に必要な線である建物の輪郭線のみを含むため、線密度lRate[6][7]は低い値になる。そのため、調整方法決定部1033は、領域調整反映度aRate[6][7]は0として算出し、個別のユーザ調整を反映しないように設定する。 On the other hand, when the linear density lRate is less than the threshold value th2, the adjustment method determination unit 1033 compares the linear density lRate of the divided region d under determination with the preset threshold value th3. The threshold value th3 is a value smaller than the threshold value th2. When the linear density lRate is equal to or less than the threshold value th3, the adjustment method determining unit 1033 determines that the divided region d is a divided region d in which unnecessary lines do not exist in the coloring image and only contour lines exist. Then, in step S1105, the adjustment method determination unit 1033 calculates and sets the area adjustment reflection degree aRate as 0 so as not to reflect the individual adjustment. The adjustment method determination unit 1033 performs the process of step S1105 and then the process of step S1101. Here, since it is determined that the unit area d under determination includes only the lines necessary for the coloring image, individual adjustments are not reflected. For example, since the divided regions d [6] [7] shown in FIG. 5 (b) include only the outline of the building, which is a line required for the coloring image, the linear density lRate [6] [7] is a low value. become. Therefore, the adjustment method determination unit 1033 calculates the area adjustment reflection degree aRate [6] [7] as 0, and sets it so as not to reflect individual user adjustments.

一方、線密度lRateが閾値th3を超える値である場合、調整方法決定部1033は、ステップS1106にて、判定中の分割領域dに隣接する全ての分割領域dの線密度lRateがあらかじめ設定された閾値th4以下であるかどうかを判定する。これは、判定中の分割領域dの線密度lRateが中程度である場合、周辺の分割領域dの線密度lRateに基づいて、多くの輪郭線を含む場合であるか輪郭線と不要な線とを含む場合であるかを判定するものである。当該分割領域dに隣接する全ての分割領域dの線密度lRateが閾値th4以下である場合、ステップS1107にて、調整方法決定部1033は、判定中の分割領域dは多くの輪郭線のみを含むと判定する。そのため、調整方法決定部1033は、個別の調整が反映されないように判定中の分割領域dの領域調整反映度aRateを0として算出して設定する。例えば、図5(b)に示した分割領域d[5][8]は、ぬり絵画像に必要な線である建物の窓の輪郭線を多く含むため、線密度lRate[5][8]は中程度の値になる。また、分割領域d[5][8]の周辺には線密度lRateが高い分割領域dが存在しないため、領域調整反映度aRate[5][8]は0として個別のユーザ調整を反映しないように設定する。調整方法決定部1033は、ステップS1107の処理を行った後、ステップS1101の処理を行う。 On the other hand, when the linear density lRate is a value exceeding the threshold value th3, the adjustment method determination unit 1033 presets the linear density lRates of all the division regions d adjacent to the division region d under determination in step S1106. It is determined whether or not the threshold value is th4 or less. This is because when the linear density lRate of the divided region d under determination is medium, many contour lines are included based on the linear density lRate of the peripheral divided region d, or the contour lines and unnecessary lines are combined. It is for determining whether or not the case includes. When the linear density lRate of all the divided regions d adjacent to the divided region d is equal to or less than the threshold value th4, in step S1107, the adjustment method determining unit 1033 includes only a large number of contour lines in the divided region d being determined. Is determined. Therefore, the adjustment method determination unit 1033 calculates and sets the area adjustment reflection degree aRate of the divided area d under determination as 0 so that the individual adjustments are not reflected. For example, the divided regions d [5] [8] shown in FIG. 5 (b) include many contour lines of the windows of the building, which are necessary lines for the coloring image, and therefore have a linear density of lRate [5] [8]. Is a medium value. Further, since there is no division area d having a high linear density lRate around the division areas d [5] [8], the area adjustment reflection degree aRate [5] [8] is set to 0 so that individual user adjustments are not reflected. Set to. The adjustment method determination unit 1033 performs the process of step S1107 and then the process of step S1101.

一方、判定中の単位領域dに隣接する分割領域dのうち、線密度lRateが閾値th4を超える分割領域dが存在する場合は、ステップS1108にて、調整方法決定部1033は、判定中の分割領域dの領域調整反映度aRateを50として算出して設定する。これは、判定中の分割領域dは輪郭線と不要な線とを含むと判定するため、どちらの線に対しても不具合が生じないようにするためである。例えば、図5(b)に示した分割領域d[0][5]はぬり絵画像に必要な線である山の輪郭線と、ぬり絵画像に不要な山の葉の輪郭線とを含むため、線密度lRate[0][5]は中程度の値になる。また、分割領域d[0][5]の周辺には線密度lRateが高い分割領域d[1][6]が存在するため、調整方法決定部1033は、領域調整反映度aRate[0][5]は50として個別のユーザ調整を中程度反映するように設定する。また、ステップS1108の処理では、領域調整反映度aRateを固定の値50としているが、隣接する分割領域の線密度lRateの平均値などに応じた値でも良い。また、本実施例では画像データを横10×縦10で分割しており、輪郭線と不要な線との両方を含む分割領域dが多く存在する場合がある。しかし、分割数を多くすることで、輪郭線と不要な線とを含む分割領域dを少なくすることができ、より高精度に判定することが可能になる。調整方法決定部1033は、ステップS1108の処理を行った後、ステップS1101の処理を行う。 On the other hand, if there is a division area d adjacent to the unit area d under determination and whose linear density lRate exceeds the threshold value th4, in step S1108, the adjustment method determination unit 1033 determines the division under determination. The area adjustment reflection degree aRate of the area d is calculated and set as 50. This is because it is determined that the divided region d under determination includes a contour line and an unnecessary line, so that no problem occurs with either line. For example, the divided regions d [0] [5] shown in FIG. 5B include a mountain contour line that is a line necessary for the coloring image and a mountain leaf contour line that is not necessary for the coloring image. Therefore, the linear density lRate [0] [5] has a medium value. Further, since the divided regions d [1] [6] having a high linear density lRate exist around the divided regions d [0] [5], the adjustment method determination unit 1033 determines the region adjustment reflection degree aRate [0] [0] [ 5] is set to 50 so as to reflect individual user adjustments to a medium degree. Further, in the process of step S1108, the region adjustment reflection degree aRate is set to a fixed value of 50, but a value corresponding to the average value of the linear density lRate of the adjacent divided regions may be used. Further, in this embodiment, the image data is divided into 10 horizontal × 10 vertical, and there may be many divided regions d including both contour lines and unnecessary lines. However, by increasing the number of divisions, the division area d including the contour line and the unnecessary line can be reduced, and the determination can be made with higher accuracy. The adjustment method determination unit 1033 performs the process of step S1108 and then the process of step S1101.

以上、述べたようにステップS205では、ぬり絵画像の元となる画像に応じたユーザ調整用の操作インタフェイスに基づいて、ステップS202で作成したぬり絵画像のユーザ調整を行って調整ぬり絵画像を作成する。 As described above, in step S205, the user adjustment of the coloring picture image created in step S202 is performed based on the operation interface for user adjustment according to the image that is the source of the coloring picture image. To create.

上記の実施例に従うと、ぬり絵画像に対してユーザ調整を行う際、分割領域の線密度とその周辺の分割領域の線密度とから不要な線を含む箇所に対して、個別にユーザ調整を行う操作インタフェイスを設定することができる。そのため、従来ではぬり絵画像に対して、輪郭線と不要な線とを含む場合に最適なユーザ調整を行うことが難しかったが、本実施例では輪郭線と不要な線とのそれぞれにユーザ調整を行うことができるため、ぬり絵画像に対して最適なユーザ調整が可能になる。なお、本実施例では、ぬり絵画像に対して線の濃さの調整を実施する例を示したが、調整する内容は線の濃さに限らず、線の多さや線の太さ、線の色の調整などでもよく、複数の項目を同時に調整してもよい。 According to the above embodiment, when the user adjustment is performed on the coloring image, the user adjustment is individually performed for the portion including the unnecessary line from the linear density of the divided area and the linear density of the divided area around the divided area. You can set the operation interface to be performed. Therefore, in the past, it was difficult to perform optimal user adjustment when a contour line and an unnecessary line were included in the coloring image, but in this embodiment, the user adjustment is performed for each of the contour line and the unnecessary line. Therefore, the optimum user adjustment for the coloring image becomes possible. In this embodiment, an example of adjusting the line density for the coloring image is shown, but the content to be adjusted is not limited to the line density, but the number of lines, the thickness of the line, and the line. The color of the image may be adjusted, or a plurality of items may be adjusted at the same time.

(実施例2)
実施例1では、ぬり絵画像に不要な線に対してユーザ調整を個別に行う操作インタフェイスを設ける例を示した。本実施例では、ぬり絵画像に不要な線を含むオブジェクト(対象物)毎にユーザ調整を行う操作インタフェイスを設ける例を示す。本実施例では、ぬり絵画像に不要な線を含むオブジェクト毎に個別のユーザ調整を行うことができる操作インタフェイスを設けることで、実施例1よりもさらに細かくユーザ調整を行うことが可能になる。特に、ぬり絵画像に不要な線を含むオブジェクトが異なる種類の場合に、それぞれのオブジェクトに対して最適なユーザ調整が可能になる。
(Example 2)
In the first embodiment, an example is shown in which an operation interface for individually adjusting the user for unnecessary lines is provided in the coloring image. In this embodiment, an example is shown in which an operation interface for performing user adjustment is provided for each object (object) including an unnecessary line in the coloring image. In this embodiment, by providing an operation interface capable of making individual user adjustments for each object including unnecessary lines in the coloring image, it is possible to perform user adjustments more finely than in the first embodiment. .. In particular, when there are different types of objects containing unnecessary lines in the coloring image, optimum user adjustment for each object becomes possible.

本実施例の全体構成は図1に示した実施例1の構成と同様であり、画像制御部103の処理の内容が異なる。以下、実施例1と同様の処理を行う構成要素においては、処理の説明を省略する。
画像制御部103は、実施例1と同様にぬり絵画像を作成する際に実行される。図12は、本実施例における画像制御部103の処理を説明するためのフローチャートである。画像制御部103は、実施例1と同様に、ぬり絵画像の元の画像を画像データ取得部101から取得し、取得した画像の分割領域毎の線密度を算出し、取得した画像に応じたユーザ調整を行うための操作インタフェイスを設定しユーザ調整を行う。ここで、本実施例は取得した画像に応じたユーザ調整を行う操作インタフェイスを設定し、ユーザ調整を行う処理が実施例1とは異なる。実施例1では、ぬり絵画像に不要な線に対して調整を行う操作インタフェイスを設定するため、図2(b)に示した画像がぬり絵画像を作成する元の画像の場合、個別調整を行うと、この画像に含まれる左側の山と右側の山とに対して同じユーザ調整が反映される。図2(b)に示すように別のオブジェクトであっても、それらが互いに似ているオブジェクトである場合は、同じ個別調整を行っても特に問題は生じない。しかしながら、ぬり絵画像に不要な線を含むオブジェクトが複数存在し、それらが互いに別の種類のオブジェクトであった場合に、オブジェクト毎に個別の調整が可能であると利便性が高くなる。そのため、画像制御部103は、不要な線を含むオブジェクト毎に個別に調整可能な操作インタフェイスを設定し、オブジェクト毎にユーザ調整を行う。
The overall configuration of this embodiment is the same as that of the first embodiment shown in FIG. 1, and the processing content of the image control unit 103 is different. Hereinafter, in the components that perform the same processing as in the first embodiment, the description of the processing will be omitted.
The image control unit 103 is executed when creating a coloring image as in the first embodiment. FIG. 12 is a flowchart for explaining the processing of the image control unit 103 in this embodiment. Similar to the first embodiment, the image control unit 103 acquires the original image of the coloring image from the image data acquisition unit 101, calculates the linear density for each divided region of the acquired image, and responds to the acquired image. Set the operation interface for user adjustment and perform user adjustment. Here, in the present embodiment, the process of setting the operation interface for performing the user adjustment according to the acquired image and performing the user adjustment is different from that of the first embodiment. In the first embodiment, in order to set an operation interface for adjusting unnecessary lines in the coloring image, if the image shown in FIG. 2B is the original image for creating the coloring image, individual adjustment is performed. Will reflect the same user adjustments for the left and right peaks included in this image. Even if they are different objects as shown in FIG. 2B, if they are similar objects to each other, there is no particular problem even if the same individual adjustment is performed. However, when there are a plurality of objects including unnecessary lines in the coloring image and they are different types of objects, it is convenient if individual adjustments can be made for each object. Therefore, the image control unit 103 sets an operation interface that can be individually adjusted for each object including unnecessary lines, and makes user adjustments for each object.

ステップS1201〜S1203の処理は、実施例1におけるステップS201〜S203の処理とそれぞれ同じである。
ステップS1204にて、調整方法決定部1033は、ステップS1203にて算出した分割領域毎の線密度lRateに応じて、ぬり絵画像のユーザ調整を実施する際の操作インタフェイスを設定する。ここで、ステップS1201にて読み込んだ画像が図2(a)に示したようなイラスト画像である場合、調整方法決定部1033は、実施例1と同様に画面一律で線の調整を行う操作インタフェイスを設定する。一方、ステップS1201にて読み込んだ画像が図2(b)に示したような画像である場合について説明する。調整方法決定部1033は、実施例1と同様に画面一律で線の調整を行う操作インタフェイスと、ぬり絵画像に不要な線を含むオブジェクト毎に個別に調整する操作インタフェイスとを設定する。そして、調整方法決定部1033は、調整方法決定部1033と調整実行部1034とが不要な線を含むオブジェクト毎にユーザ調整を行う。具体的には、線密度lRateが高い分割領域dが互いに隣接して存在している場合、調整方法決定部1033は、ぬり絵画像に不要な線を含むオブジェクトが複数の分割領域dに渡って存在していると判定する。
The processing of steps S1201 to S1203 is the same as the processing of steps S201 to S203 in the first embodiment.
In step S1204, the adjustment method determination unit 1033 sets an operation interface for performing user adjustment of the coloring image according to the linear density lRate for each divided region calculated in step S1203. Here, when the image read in step S1201 is an illustration image as shown in FIG. 2A, the adjustment method determination unit 1033 adjusts the lines uniformly on the screen as in the first embodiment. Set the face. On the other hand, a case where the image read in step S1201 is an image as shown in FIG. 2B will be described. The adjustment method determination unit 1033 sets an operation interface for uniformly adjusting the lines on the screen and an operation interface for individually adjusting each object including unnecessary lines in the coloring image, as in the first embodiment. Then, the adjustment method determination unit 1033 makes user adjustments for each object including unnecessary lines by the adjustment method determination unit 1033 and the adjustment execution unit 1034. Specifically, when the division regions d having a high linear density lRate exist adjacent to each other, the adjustment method determination unit 1033 has an object including an unnecessary line in the coloring image over the plurality of division regions d. Determine that it exists.

図13は、ぬり絵画像についてオブジェクトを特定した場合の処理を説明するための図である。図13(a)は、図2(b)に示した画像がぬり絵画像の元画像である場合の画像に含まれる左側の山を含む分割領域dを太線で囲んだ図である。図13(a)に示した太線で囲まれた16個の分割領域dは、ぬり絵画像に不要な線である山の葉を含むため、線密度lRateの値は大きくなる。本実施例では、図13(a)に示した太線で囲まれた16個の分割領域dから構成されるグループをグループ1とする。同様に、図13(b)は、図2(b)に示した画像がぬり絵画像の元画像である場合の画像に含まれる右側の山を含む分割領域dを太線で囲んだ図である。図13(b)に示した太線で囲まれた9個の分割領域dは、ぬり絵画像に不要な線である山の葉を含むため、線密度lRateの値は大きくなる。本実施例では、図13(b)に示した太線で囲まれた9個の分割領域dから構成されるグループをグループ2とする。 FIG. 13 is a diagram for explaining a process when an object is specified for the coloring image. FIG. 13A is a diagram in which the divided region d including the mountain on the left side included in the image when the image shown in FIG. 2B is the original image of the coloring image is surrounded by a thick line. Since the 16 divided regions d surrounded by the thick line shown in FIG. 13A include mountain leaves, which are unnecessary lines in the coloring image, the value of the linear density lRate becomes large. In this embodiment, the group composed of 16 divided regions d surrounded by the thick line shown in FIG. 13 (a) is referred to as group 1. Similarly, FIG. 13B is a diagram in which the divided region d including the mountain on the right side included in the image when the image shown in FIG. 2B is the original image of the coloring image is surrounded by a thick line. .. Since the nine divided regions d surrounded by the thick line shown in FIG. 13B include mountain leaves, which are unnecessary lines in the coloring image, the value of the linear density lRate becomes large. In this embodiment, the group composed of the nine divided regions d surrounded by the thick line shown in FIG. 13B is referred to as group 2.

ステップS1204の処理では、調整方法決定部1033は、ぬり絵画像の元画像に対して線密度lRateが高い複数の分割領域dが互いに隣接して存在しているグループの数を算出する。そして、調整方法決定部1033は、算出したグループの数分だけ個別に調整できる操作インタフェイスを設定する。 In the process of step S1204, the adjustment method determination unit 1033 calculates the number of groups in which a plurality of divided regions d having a high linear density lRate exist adjacent to each other with respect to the original image of the coloring image. Then, the adjustment method determination unit 1033 sets an operation interface that can be individually adjusted for the number of calculated groups.

図14は、ステップS1204で表示部102に表示される操作インタフェイスの一例を示す図である。図14に示した調整バー1401は、図6(a)に示した調整バー601と同様に画面一律でぬり絵画像の線の濃さを調整するための調整バーである。図14に示した調整バー1402は、図2(b)に示した画像に含まれる左側の山を含む箇所に対して線の濃さを調整するための調整バーである。図14に示した調整バー1403は、図2(b)に示した画像に含まれる右側の山を含む箇所に対して線の濃さを調整するための調整バーである。ここで、表示部102がタッチパネル機能を具備していれば、ユーザのタッチ操作に基づいて、調整バー1401,1402,1403が右方向または左方向へ移動する。また、例えば、マウスやキーボード等の他の入力手段が画像生成装置100に接続または具備されている場合、その入力手段がユーザから受け付けた入力に基づいて、調整バー1401,1402,1403が右方向または左方向へ移動する。 FIG. 14 is a diagram showing an example of an operation interface displayed on the display unit 102 in step S1204. The adjustment bar 1401 shown in FIG. 14 is an adjustment bar for adjusting the line density of the coloring image uniformly on the screen, similarly to the adjustment bar 601 shown in FIG. 6A. The adjustment bar 1402 shown in FIG. 14 is an adjustment bar for adjusting the line density with respect to the portion including the mountain on the left side included in the image shown in FIG. 2 (b). The adjustment bar 1403 shown in FIG. 14 is an adjustment bar for adjusting the line density with respect to the portion including the mountain on the right side included in the image shown in FIG. 2 (b). Here, if the display unit 102 has a touch panel function, the adjustment bars 1401, 1402, 1403 move to the right or left based on the touch operation of the user. Further, for example, when another input means such as a mouse or a keyboard is connected to or provided in the image generation device 100, the adjustment bars 1401, 1402, 1403 move to the right based on the input received from the user by the input means. Or move to the left.

図15は、ステップS1204で表示部102に表示される操作インタフェイスの他の例を示す図である。図15に示すように、操作インタフェイスの他の例として、切り替えボタン1501を設け、切り替えボタン1501が選択(押下やタッチ等)される度に、調整バー1502が調整する対象を切り替える操作インタフェイスでも良い。図15に示した操作インタフェイスでは、初期状態では調整バー1502は画面一律で線の調整を行うための調整バーである。切り替えボタン1501が1回選択(押下やタッチ等)されると、調整バー1502は図2(b)に示した画像に含まれる左側の山の箇所の線の調整を行う。そして、切り替えボタン1501が2回選択(押下やタッチ等)されると、調整バー1502は図2(b)に示した画像に含まれる右側の山の箇所の線の調整を行うため調整バーとなる。なお、個別調整を行う調整バーを表示する順番は、例えば個別の調整を行う箇所の面積の大きさに応じた順番等、優先度を算出して調整バーを表示する順番としても良い。 FIG. 15 is a diagram showing another example of the operation interface displayed on the display unit 102 in step S1204. As shown in FIG. 15, as another example of the operation interface, a switching button 1501 is provided, and each time the switching button 1501 is selected (pressed, touched, etc.), the adjustment bar 1502 switches the target to be adjusted. But it's okay. In the operation interface shown in FIG. 15, in the initial state, the adjustment bar 1502 is an adjustment bar for adjusting lines uniformly on the screen. When the switching button 1501 is selected once (pressed, touched, etc.), the adjustment bar 1502 adjusts the line of the mountain portion on the left side included in the image shown in FIG. 2 (b). Then, when the switching button 1501 is selected twice (pressed, touched, etc.), the adjustment bar 1502 becomes an adjustment bar for adjusting the line of the mountain portion on the right side included in the image shown in FIG. 2 (b). Become. The order in which the adjustment bars for individual adjustments are displayed may be the order in which the adjustment bars are displayed by calculating the priority, for example, the order according to the size of the area of the portion where the individual adjustments are performed.

ステップS1205にて、調整方法決定部1033および調整実行部1034は、ステップS1204で設定された操作インタフェイスを用いて、ステップS1202で作成されたぬり絵画像の調整を実施する。本実施例では、ぬり絵画像に不要な線を含むオブジェクト毎に線の調整を行うため、ステップS1204で分類したグループ毎に実施例1のステップS105の処理を行う。図2(b)に示した画像がぬり絵画像の元画像である場合について説明する。調整方法決定部1033は、ステップS1204にてグループ1に分類された図13(a)に示した太線で囲まれた16個の分割領域dで、領域反映度aRateおよび画素調整反映度pRateを算出する。そして、調整方法決定部1033は、ステップS1205にて、ぬり絵画像の調整を実施する。また、調整方法決定部1033は、ステップS1204でグループ2に分類された図13(b)に示した太線で囲まれた9個の分割領域dで、領域反映度aRateおよび画素調整反映度pRateを算出し、ステップS1205にて、ぬり絵画像の調整を実施する。そして、ステップS1206にて、画像印刷部104が、ユーザ調整を行い作成したぬり絵画像を印刷する。 In step S1205, the adjustment method determination unit 1033 and the adjustment execution unit 1034 adjust the coloring image created in step S1202 by using the operation interface set in step S1204. In this embodiment, in order to adjust the lines for each object including unnecessary lines in the coloring image, the process of step S105 of the first embodiment is performed for each group classified in step S1204. A case where the image shown in FIG. 2B is the original image of the coloring image will be described. The adjustment method determination unit 1033 calculates the area reflection degree aRate and the pixel adjustment reflection degree pRate in the 16 divided areas d surrounded by the thick line shown in FIG. 13 (a) classified into the group 1 in step S1204. do. Then, the adjustment method determination unit 1033 adjusts the coloring image in step S1205. Further, the adjustment method determination unit 1033 sets the area reflection degree aRate and the pixel adjustment reflection degree pRate in the nine division areas d surrounded by the thick line shown in FIG. 13B, which are classified into the group 2 in step S1204. The calculation is performed, and the coloring image is adjusted in step S1205. Then, in step S1206, the image printing unit 104 prints the coloring picture image created by performing user adjustment.

以上述べたように本実施例によれば、ぬり絵画像に対してユーザ調整を行う際、ぬり絵画像に不要な線を含むオブジェクトが複数種類存在する場合に、オブジェクト毎にそれぞれ個別の調整が可能になり、より細かいユーザ調整を実施できる。 As described above, according to the present embodiment, when the user adjustment is performed on the coloring image, when there are a plurality of types of objects including unnecessary lines in the coloring image, individual adjustments are made for each object. It becomes possible and finer user adjustment can be performed.

(実施例3)
実施例1、2では、調整中のぬり絵画像のプレビュー画面と操作インタフェイスとを1つの表示部に表示する例を示した。本実施例では、調整中のぬり絵画像のプレビュー画面と操作インタフェイスとをそれぞれ別の表示部に表示する例を示す。
(Example 3)
In Examples 1 and 2, an example in which the preview screen of the coloring picture image being adjusted and the operation interface are displayed on one display unit is shown. In this embodiment, an example is shown in which the preview screen of the coloring picture image being adjusted and the operation interface are displayed on separate display units.

実施例1、2のように調整中のぬり絵画像のプレビュー画面と操作インタフェイスとを1つの表示部に表示すると、プレビュー画面と操作インタフェイスとの表示が小さくなり、その内容が見えにくくユーザ調整が難しい場合がある。本実施例では、調整中のぬり絵画像のプレビュー画面と操作インタフェイスとをそれぞれ別の表示部に表示することで、それぞれの画面を広い表示部に表示することができ、外部からのユーザ調整が実施しやすくなる。 When the preview screen and the operation interface of the coloring picture image being adjusted are displayed on one display unit as in Examples 1 and 2, the display of the preview screen and the operation interface becomes small, and the contents are difficult to see and the user. Adjustment can be difficult. In this embodiment, by displaying the preview screen of the coloring picture image being adjusted and the operation interface on separate display units, each screen can be displayed on a wide display unit, and user adjustment from the outside can be performed. Will be easier to implement.

本実施例の全体構成は図1に示した実施例1の構成と同様であり、画像制御部103の処理の内容が異なる。表示部102は、2つの表示ディスプレイを備える。以下、実施例1と同様の処理を行う構成要素においては、処理の説明を省略する。
画像制御部103は、実施例1と同様にぬり絵画像を作成する際に実行される。画像制御部103は、実施例1と同様に、ぬり絵画像の元の画像を画像データ取得部101から取得し、取得した画像の分割領域毎の線密度を算出し、取得した画像に応じたユーザ調整を行うための操作インタフェイスを設定しユーザ調整を行う。実施例1、2では、調整中のぬり絵画像のプレビュー画面と操作インタフェイスとを1つのディスプレイから構成される表示部102に表示している。本実施例では、表示部102が複数のディスプレイから構成され、調整中のぬり絵画像のプレビュー画面と操作インタフェイスとをそれぞれ別の表示ディスプレイに表示する。表示部102は、画像制御部103で調整中のぬり絵画像のプレビュー画面と操作インタフェイスとをそれぞれ別の表示ディスプレイに表示する。また、表示部102の表示ディスプレイの1つが、画像生成装置100とは別の装置に搭載されていても良い。
The overall configuration of this embodiment is the same as that of the first embodiment shown in FIG. 1, and the processing content of the image control unit 103 is different. The display unit 102 includes two display displays. Hereinafter, in the components that perform the same processing as in the first embodiment, the description of the processing will be omitted.
The image control unit 103 is executed when creating a coloring image as in the first embodiment. Similar to the first embodiment, the image control unit 103 acquires the original image of the coloring image from the image data acquisition unit 101, calculates the linear density for each divided region of the acquired image, and responds to the acquired image. Set the operation interface for user adjustment and perform user adjustment. In the first and second embodiments, the preview screen of the coloring image being adjusted and the operation interface are displayed on the display unit 102 composed of one display. In this embodiment, the display unit 102 is composed of a plurality of displays, and the preview screen of the coloring picture image being adjusted and the operation interface are displayed on different display displays. The display unit 102 displays the preview screen of the coloring image being adjusted by the image control unit 103 and the operation interface on separate display displays. Further, one of the display displays of the display unit 102 may be mounted on a device different from the image generation device 100.

以上述べたように本実施例によれば、ぬり絵画像に対してユーザ調整を行う際、調整中のぬり絵画像のプレビュー画面と操作インタフェイスとをそれぞれ別のディスプレイに表示することが可能になる。そのため、それぞれの画面を広い表示部に表示することができ、外部からのユーザ調整が実施しやすくなり、また、ぬり絵画像の調整時の視認性を高めることができる。 As described above, according to the present embodiment, when the user adjusts the coloring image, the preview screen of the coloring image being adjusted and the operation interface can be displayed on different displays. Become. Therefore, each screen can be displayed on a wide display unit, user adjustment from the outside can be easily performed, and visibility at the time of adjusting the coloring image can be improved.

100 画像生成装置
101 画像データ取得部
102 表示部
104 画像印刷部
1031 線密度算出部
1032 輪郭線画像作成部
1033 調整方法決定部
1034 調整実行部
100 Image generator 101 Image data acquisition unit 102 Display unit 104 Image printing unit 1031 Linear density calculation unit 1032 Contour line image creation unit 1033 Adjustment method determination unit 1034 Adjustment execution unit

Claims (14)

画像データを取得する画像データ取得部と、
前記画像データ取得部が取得した画像データの輪郭線を抽出した輪郭線画像を作成する輪郭線作成部と、
前記輪郭線作成部が作成した輪郭線画像を所定の分割領域に分割し、前記分割領域ごとの線密度を算出する線密度算出部と、
前記線密度算出部が算出した前記分割領域ごとの線密度に基づいて、前記輪郭線画像に対する調整方法を決定する調整法決定部と、
前記調整法決定部が決定した調整方法を用いて前記輪郭線画像を調整する調整実行部とを有する画像生成装置。
The image data acquisition unit that acquires image data and
A contour line creation unit that creates a contour line image by extracting the contour lines of the image data acquired by the image data acquisition unit, and a contour line creation unit.
A line density calculation unit that divides the contour line image created by the contour line creation unit into predetermined division regions and calculates the linear density for each division region.
An adjustment method determination unit that determines an adjustment method for the contour line image based on the linear density for each divided region calculated by the linear density calculation unit.
An image generation device including an adjustment execution unit that adjusts the contour line image by using the adjustment method determined by the adjustment method determination unit.
請求項1に記載の画像生成装置において、
前記調整法決定部は、前記線密度が所定の閾値以上である分割領域の輪郭線画像に対して、前記輪郭線個別に調整可能な調整方法を決定する画像生成装置。
In the image generator according to claim 1,
The adjustment method determining unit is an image generation device that determines an adjustment method that can individually adjust the contour line with respect to the contour line image of the divided region whose linear density is equal to or higher than a predetermined threshold value.
請求項2に記載の画像生成装置において、
前記調整法決定部は、前記分割領域の線密度と該分割領域に隣接する分割領域の線密度とに基づいて、該分割領域の前記輪郭線画像を調整するための領域反映度を決定する画像生成装置。
In the image generator according to claim 2,
The adjustment method determining unit determines the region reflection degree for adjusting the contour line image of the divided region based on the linear density of the divided region and the linear density of the divided region adjacent to the divided region. Generator.
請求項3に記載の画像生成装置において、
前記調整法決定部は、前記領域反映度と前記分割領域の中心からの距離とに応じて、該分割領域に含まれる前記輪郭線画像を画素ごとに調整するための画素反映度を決定する画像生成装置。
In the image generator according to claim 3,
The adjustment method determining unit determines the pixel reflection degree for adjusting the contour line image included in the divided region for each pixel according to the region reflection degree and the distance from the center of the divided region. Generator.
請求項2から4のいずれか1項に記載の画像生成装置において、
前記調整法決定部は、前記線密度が所定の閾値以上である、互いに隣接した複数の分割領域の輪郭線画像に対して、該分割領域に含まれる対象物ごとに個別に調整可能な調整方法を決定する画像生成装置。
In the image generator according to any one of claims 2 to 4.
The adjustment method determining unit is an adjustment method capable of individually adjusting each of the objects included in the divided regions with respect to the contour line images of a plurality of divided regions adjacent to each other having the linear density equal to or higher than a predetermined threshold value. An image generator that determines.
請求項1から5のいずれか1項に記載の画像生成装置において、
前記調整法決定部は、前記線密度が所定の閾値以上である分割領域が前記画像データに存在しない場合、前記輪郭線画像に対して該画像データ一律に調整可能な調整方法を決定する画像生成装置。
In the image generator according to any one of claims 1 to 5,
When the image data does not have a divided region whose line density is equal to or higher than a predetermined threshold value, the adjustment method determining unit determines an image generation method that can uniformly adjust the image data with respect to the contour line image. Device.
請求項1から6のいずれか1項に記載の画像生成装置において、
外部から操作を受け付ける入力部を有し、
前記調整法決定部は、前記入力部が受け付けた入力に基づいて、前記輪郭線画像の調整方法を決定する画像生成装置。
In the image generator according to any one of claims 1 to 6,
It has an input unit that accepts operations from the outside.
The adjustment method determining unit is an image generation device that determines an adjusting method of the contour line image based on the input received by the input unit.
請求項7に記載の画像生成装置において、
前記調整法決定部は、前記入力部が受け付けた入力に基づいて、前記輪郭線画像の濃さを決定する画像生成装置。
In the image generator according to claim 7,
The adjustment method determining unit is an image generation device that determines the density of the contour line image based on the input received by the input unit.
請求項1から8のいずれか1項に記載の画像生成装置において、
前記調整実行部が調整した前記輪郭線画像を印刷する画像印刷部を有する画像生成装置。
In the image generator according to any one of claims 1 to 8.
An image generation device having an image printing unit that prints the contour line image adjusted by the adjustment executing unit.
請求項1から9のいずれか1項に記載の画像生成装置において、
前記調整実行部が調整した前記輪郭線画像を表示する表示部を有する画像生成装置。
In the image generator according to any one of claims 1 to 9.
An image generation device having a display unit that displays the contour line image adjusted by the adjustment execution unit.
画像データを装置に取得する処理と、
前記取得した画像データの輪郭線を抽出した輪郭線画像を作成する処理と、
前記作成した輪郭線画像を所定の分割領域に分割する処理と、
前記分割領域ごとの線密度を算出する処理と、
前記算出した前記分割領域ごとの線密度に基づいて、前記輪郭線画像に対する調整方法を決定する処理と、
前記決定した調整方法を用いて前記輪郭線画像を調整する処理とを行う画像生成方法。
The process of acquiring image data to the device and
The process of creating a contour line image by extracting the contour line of the acquired image data, and
The process of dividing the created contour line image into a predetermined division area, and
The process of calculating the linear density for each divided region and
A process of determining an adjustment method for the contour line image based on the calculated linear density for each divided region, and a process of determining the adjustment method for the contour line image.
An image generation method that performs a process of adjusting the contour line image using the determined adjustment method.
請求項11に記載の画像生成方法において、
前記線密度が所定の閾値以上である分割領域の輪郭線画像に対して、前記輪郭線個別に調整可能な調整方法を決定する画像生成方法。
In the image generation method according to claim 11,
An image generation method for determining an adjustment method that can individually adjust the contour line for a contour line image of a divided region in which the line density is equal to or higher than a predetermined threshold value.
請求項12に記載の画像生成方法において、
前記分割領域の線密度と該分割領域に隣接する分割領域の線密度とに基づいて、該分割領域の前記輪郭線画像を調整するための領域反映度を決定する画像生成方法。
In the image generation method according to claim 12,
An image generation method for determining a region reflection degree for adjusting the contour line image of the divided region based on the linear density of the divided region and the linear density of the divided region adjacent to the divided region.
請求項13に記載の画像生成方法において、
前記領域反映度と前記分割領域の中心からの距離とに応じて、該分割領域に含まれる前記輪郭線画像を画素ごとに調整するための画素反映度を決定する画像生成方法。
In the image generation method according to claim 13,
An image generation method for determining the pixel reflection degree for adjusting the contour line image included in the divided region for each pixel according to the region reflection degree and the distance from the center of the divided region.
JP2020005948A 2020-01-17 2020-01-17 Image generation device and image generation method Pending JP2021114083A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020005948A JP2021114083A (en) 2020-01-17 2020-01-17 Image generation device and image generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020005948A JP2021114083A (en) 2020-01-17 2020-01-17 Image generation device and image generation method

Publications (1)

Publication Number Publication Date
JP2021114083A true JP2021114083A (en) 2021-08-05

Family

ID=77077025

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020005948A Pending JP2021114083A (en) 2020-01-17 2020-01-17 Image generation device and image generation method

Country Status (1)

Country Link
JP (1) JP2021114083A (en)

Similar Documents

Publication Publication Date Title
RU2693303C2 (en) Method and device for changing background colour of tool panel according to dominant colour of image
DE102011078662B4 (en) Acquiring and generating images with a high dynamic range
US7945114B2 (en) Image transform method for obtaining expanded image data, image processing apparatus and image display device therefore
KR101942987B1 (en) Method, system for removing background of a video, and a computer-readable storage device
EP3155593B1 (en) Method and device for color processing of digital images
EP1965348A1 (en) Gray-scale correcting method, gray-scale correcting device, gray-scale correcting program, and image device
US9626751B2 (en) Method and system for analog/digital image simplification and stylization
US8547386B2 (en) Image processing device and non-transitory computer-readable storage medium
JP2012521708A (en) Method and apparatus for correcting an image using a saliency map based on color frequency
JP2008501170A (en) Method and system for viewing and enhancing images
KR20000052475A (en) Image processing method and apparatus, image processing system, and storage medium
US10592766B2 (en) Image processing apparatus and medium storing program executable by image processing apparatus
CN113039576A (en) Image enhancement system and method
JP6904842B2 (en) Image processing device, image processing method
CN106031145B (en) Image processing apparatus and image processing method
CN105338214A (en) Image processing method and image processing device
CN1330166C (en) Image processing device, image display device, image processing method, and image display method
JP2009118419A (en) Image processing apparatus, image processing method and image processing program
JP2021114083A (en) Image generation device and image generation method
KR100791374B1 (en) Method and apparatus for image adaptive color adjustment of pixel in color gamut
KR102448551B1 (en) Method and apparatus processing images by using algorithm configured by node based graph
KR101958263B1 (en) The control method for VR contents and UI templates
CN115880461A (en) Augmented reality image generation method, device, equipment and storage medium
JP5067224B2 (en) Object detection apparatus, object detection method, object detection program, and printing apparatus
US11217205B2 (en) Method and apparatus for rendering contents for vision accessibility