JP2019117558A - Color information estimation model generating device, image colorization device and programs for the same - Google Patents

Color information estimation model generating device, image colorization device and programs for the same Download PDF

Info

Publication number
JP2019117558A
JP2019117558A JP2017251872A JP2017251872A JP2019117558A JP 2019117558 A JP2019117558 A JP 2019117558A JP 2017251872 A JP2017251872 A JP 2017251872A JP 2017251872 A JP2017251872 A JP 2017251872A JP 2019117558 A JP2019117558 A JP 2019117558A
Authority
JP
Japan
Prior art keywords
color
information
boundary
image
estimation model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017251872A
Other languages
Japanese (ja)
Other versions
JP6986438B2 (en
Inventor
伶 遠藤
Rei Endo
伶 遠藤
吉彦 河合
Yoshihiko Kawai
吉彦 河合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2017251872A priority Critical patent/JP6986438B2/en
Publication of JP2019117558A publication Critical patent/JP2019117558A/en
Application granted granted Critical
Publication of JP6986438B2 publication Critical patent/JP6986438B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To provide a color information estimation model generating device for generating a color information estimation model for estimating color information from a monochrome image.SOLUTION: A color information estimation model generating device 1 comprises: information separation means 10 for separating a color image into color information and monochrome information; boundary learning data generation means 12 for selecting a pixel from a boundary having a larger change in color than a predetermined threshold in the separated color information at random, and generating boundary information indicative of a position thereof; and model learning means 13 for learning a neural network, using the monochrome information and the boundary information as input and the color information separated in the information separation means 10 as correct data, and generating a color information estimation model M.SELECTED DRAWING: Figure 2

Description

本発明は、モノクロ画像をカラー化するためのカラー情報推定モデル生成装置、画像カラー化装置およびそれらのプログラムに関する。   The present invention relates to a color information estimation model generation device for coloring monochrome images, an image colorization device, and programs therefor.

近年、いわゆる機械学習技術を用いることにより、モノクロ画像(白黒画像)におけるカラー情報を推定する方法が提案されている(非特許文献1、非特許文献2参照)。このような機械学習技術を用いたカラー情報の推定方法は、多様な物体が写った膨大な量のカラー画像を用意することを前提としている。   In recent years, methods have been proposed for estimating color information in a monochrome image (black and white image) by using a so-called machine learning technology (see Non-Patent Document 1 and Non-Patent Document 2). The method of estimating color information using such a machine learning technique is premised on preparing a vast amount of color images in which various objects are captured.

このカラー情報の推定方法は、カラー情報を推定するための推定モデルを学習する際に、例えば、ニューラルネットワーク等で構成されたモデルに、膨大なカラー画像を入力する。そして、この推定方法は、モノクロ画像とこのモノクロ画像に対応するカラー情報との対応関係を機械学習技術により推定モデルのパラメータとして学習する。そして、この推定方法は、学習した推定モデルを用いて、モノクロ画像とカラー情報との対応関係から、入力として与えられるモノクロ画像に対して、カラー情報を推定し、カラー画像を生成する。   In this color information estimation method, when learning an estimation model for estimating color information, for example, an enormous number of color images are input to a model configured by a neural network or the like. Then, in this estimation method, the correspondence between the monochrome image and the color information corresponding to the monochrome image is learned as a parameter of an estimation model by machine learning technology. Then, this estimation method estimates color information with respect to the monochrome image given as input from the correspondence between the monochrome image and the color information using the learned estimation model, and generates a color image.

しかし、このようなモノクロ画像だけを入力とするカラー情報の推定方法は、学習データに含まれる物体の平均的な色を出力するように推定モデルを学習する。そのため、この推定方法は、洋服のような色のバリエーションが多い物体に対して、同じような色を推定することになり、自然な色のカラー画像を生成することができない。   However, such a color information estimation method using only monochrome images as input learns an estimation model so as to output an average color of an object included in learning data. Therefore, this estimation method estimates similar colors for objects with many color variations such as clothes, and can not generate a color image of natural colors.

そこで、従来、カラー情報の推定モデルへの入力として、モノクロ画像だけではなく、ユーザによる色指定情報を用いる方法が提案されている(非特許文献3参照)。この方法は、モノクロ画像上の物体に対してユーザが着色して欲しい色を指示する情報を推定モデルに与えることで、その物体を指定された色で着色するように学習し、モノクロ画像からカラー画像を生成する。
この方法によって、洋服のような色のバリエーションが多い物体でも、ユーザ所望の色付けが可能となる。また、この方法によって、史実等で予め正解の色が分かっている場合に、モノクロ画像からより正確なカラー画像を生成することができる。
Therefore, conventionally, there has been proposed a method using not only monochrome images but also color designation information by the user as input to the estimation model of color information (see Non-Patent Document 3). This method learns that the object is colored with the specified color by giving the information indicating the color desired to be colored by the user for the object on the monochrome image, and the monochrome image is colored. Generate an image.
By this method, even for an object with many color variations, such as clothes, it is possible to perform coloring desired by the user. Further, this method can generate a more accurate color image from a monochrome image when the correct color is known in advance by historical fact or the like.

Satoshi Iizuka, Edgar Simo-Serra, and Hiroshi Ishikawa., “Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic Image Colorization with Simultaneous Classification,” ACM Transaction on Graphics (Proc. Of SIGGRAPH), 35(4):110, 2016.Satoshi Iizuka, Edgar Simo-Serra, and Hiroshi Ishikawa. “Let there be Color! SIGGRAPH), 35 (4): 110, 2016. Richard Zhang, Phillip Isola, and Alexei A. Efros. “Colorful Image Colorization.” In ECCV 2016.Richard Zhang, Phillip Isola, and Alexei A. Efros. “Colorful Image Colorization.” In ECCV 2016. R. Zhang, J.Y. Zhu, P. Isola, X. Geng, A. S. Lin, T. Yu, A. A. Efros., “Real-Time User-Guided Image Colorization with Learned Deep Priors,” in SIGGRAPH, 2017.Z. Zhang, J. Zhu, P. Isola, X. Geng, A. S. Lin, T. Yu, A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. A. E. f.

前記したユーザの指示による色指定情報を用いてモノクロ画像をカラー化する方法は、ユーザが指定した色を画像のどの領域まで着色するのかを直接コントロールすることができない。そのため、この方法は、ユーザの意図とは異なる領域を指定した色で着色してしまうことがあるという問題がある。
例えば、モノクロ画像上のある洋服を赤色で着色する指示を与えても、洋服に隣接して写っている樹木を赤色に着色してしまうことがある。この場合も、樹木に対して正しい色(例えば、茶色)を指定することは可能であるが、画像全体に着色を指示することが必要になり、多くの手間を要する。
The method of coloring a monochrome image using color designation information according to the user's instruction described above can not directly control to which region of the image the color designated by the user is to be colored. Therefore, this method has a problem that an area different from the user's intention may be colored with a designated color.
For example, even if an instruction to color a certain clothes on a monochrome image in red is given, the trees appearing adjacent to the clothes may be colored in red. Also in this case, although it is possible to specify the correct color (for example, brown) for the tree, it is necessary to specify coloring for the entire image, which requires much time and effort.

また、従来の方法は、たとえ画像上の多くの物体に色を指定したとしても、物体の境界付近で正しく色付けすることができない場合があるという問題がある。特に、モノクロ画像上でほぼ同じ色の領域となる輝度値の変化が少ない領域では、領域ごとに異なる色を着色することは困難である。   Also, the conventional method has a problem that even if colors are specified for many objects on the image, it may not be possible to color correctly around the boundaries of the objects. In particular, it is difficult to color different colors for each area in an area where the change in luminance value is small, which is an area of substantially the same color on a monochrome image.

本発明は、以上のような問題点に鑑みてなされたものであり、モノクロ画像をカラー化する際に、画像上の領域の境界で色を分けることが可能なカラー情報推定モデル生成装置、画像カラー化装置およびそれらのプログラムを提供することを課題とする。   The present invention has been made in view of the above problems, and is a color information estimation model generating apparatus capable of separating colors at the boundary of an area on an image when coloring a monochrome image. An object of the present invention is to provide a coloring apparatus and a program for the same.

前記課題を解決するため、本発明に係るカラー情報推定モデル生成装置は、モノクロ画像からカラー情報を推定するためのカラー情報推定モデルを生成するカラー情報推定モデル生成装置であって、情報分離手段と、境界学習データ生成手段と、モデル学習手段と、を備える構成とした。   In order to solve the above problem, a color information estimation model generation apparatus according to the present invention is a color information estimation model generation apparatus for generating a color information estimation model for estimating color information from a monochrome image, which comprises: , Boundary learning data generation means, and model learning means.

かかる構成において、カラー情報推定モデル生成装置は、情報分離手段によって、学習データであるカラー画像を明度成分であるモノクロ情報と明度成分以外の色成分であるカラー情報とに分離する。カラー画像から分離されたモノクロ情報は、カラー情報推定モデルを学習するためのモノクロ画像の学習データとなる。
そして、カラー情報推定モデル生成装置は、境界学習データ生成手段によって、情報分離手段で分離したカラー情報において、色の変化が予め定めた閾値よりも大きい境界から画素をランダムに選択し、その位置を示す境界情報を生成する。この境界情報は、モノクロ画像上で、境界となる位置をユーザが指示する学習データとなる。また、境界となる画素をランダムに選択するのは、境界の一部をユーザが指示することをカラー情報推定モデルに学習させるためである。
In such a configuration, the color information estimation model generation device separates the color image as learning data into monochrome information as lightness component and color information as color components other than the lightness component by the information separating means. The monochrome information separated from the color image becomes learning data of a monochrome image for learning a color information estimation model.
Then, the color information estimation model generation apparatus randomly selects a pixel from the boundary where the change in color is larger than a predetermined threshold in the color information separated by the information separation unit by the boundary learning data generation unit, and the position thereof Generate boundary information to indicate. This boundary information is learning data for the user to indicate the position to be the boundary on the monochrome image. In addition, the reason for randomly selecting the pixel to be the boundary is to make the color information estimation model learn that the user designates a part of the boundary.

そして、カラー情報推定モデル生成装置は、モデル学習手段によって、モノクロ情報と境界情報とを入力し、情報分離手段で分離したカラー情報を正解データとしてニューラルネットワークを学習することで、ニューラルネットワークで構成されたカラー情報推定モデルを生成する。
これによって、カラー情報推定モデル生成装置は、モノクロ情報と境界情報とからカラー情報を推定することが可能なカラー情報推定モデルを生成する。
The color information estimation model generation apparatus is configured by a neural network by inputting monochrome information and boundary information by the model learning means, and learning a neural network using the color information separated by the information separation means as correct data. Generate a color information estimation model.
Thus, the color information estimation model generation device generates a color information estimation model capable of estimating color information from monochrome information and boundary information.

また、前記課題を解決するため、本発明に係る画像カラー化装置は、カラー情報推定モデル生成装置で生成されたカラー情報推定モデルを用いて、モノクロ画像からカラー情報を推定し、カラー画像を生成する画像カラー化装置であって、境界指示手段と、境界情報生成手段と、カラー情報推定手段と、カラー画像合成手段と、を備える構成とした。   Further, in order to solve the above problem, the image coloring apparatus according to the present invention estimates color information from a monochrome image using a color information estimation model generated by the color information estimation model generating apparatus to generate a color image. The image colorization apparatus includes: a boundary instruction unit; a boundary information generation unit; a color information estimation unit; and a color image synthesis unit.

かかる構成において、画像カラー化装置は、境界指示手段によって、カラー化対象のモノクロ画像における境界の位置を境界指示として入力する。これによって、ユーザは、モノクロ画像上の輝度がほぼ同じ領域であっても、明示的に境界を指示することができる。
そして、画像カラー化装置は、境界情報生成手段によって、モノクロ画像の画素位置に対応して、境界指示で指示された画素位置に境界であることを示す情報を設定した境界情報を生成する。
In such a configuration, the image colorization apparatus inputs the position of the boundary in the monochrome image to be colored as the boundary instruction by the boundary instruction means. This allows the user to explicitly indicate the boundary even if the luminance on the monochrome image is substantially the same.
Then, the image colorization apparatus generates boundary information in which the information indicating the boundary is set at the pixel position designated by the boundary instruction, corresponding to the pixel position of the monochrome image, by the boundary information generation means.

そして、画像カラー化装置は、カラー情報推定手段によって、カラー情報推定モデルを用いて、モノクロ情報であるモノクロ画像と境界情報とからカラー情報を推定する。
そして、画像カラー化装置は、カラー画像合成手段によって、カラー情報推定手段で推定されたカラー情報と入力されたモノクロ画像とを合成することで、カラー画像を生成する。
Then, the image colorization apparatus estimates color information from the monochrome image, which is monochrome information, and the boundary information using the color information estimation model by the color information estimation means.
Then, the image colorization apparatus generates a color image by combining the color information estimated by the color information estimation means with the input monochrome image by the color image combining means.

また、本発明は、コンピュータを、前記カラー情報推定モデル生成装置として機能させるためのカラー情報推定モデル生成プログラムで実現することもできる。
また、本発明は、コンピュータを、前記画像カラー化装置として機能させるための画像カラー化プログラムで実現することもできる。
The present invention can also be realized by a color information estimation model generation program for causing a computer to function as the color information estimation model generation device.
The present invention can also be realized by an image colorization program for causing a computer to function as the image colorization device.

本発明は、以下に示す優れた効果を奏するものである。
本発明に係るカラー情報推定モデル生成装置によれば、カラー画像に対する色の境界を学習し、境界によって異なる色となる状態を学習したカラー情報推定モデルを生成することができる。
また、本発明に係る画像カラー化装置によれば、ユーザがモノクロ画像上で色の境を明示的に与える簡易な操作で、モノクロ画像から、より正確なカラー画像を生成することができる。
The present invention exhibits the following excellent effects.
According to the color information estimation model generation apparatus of the present invention, it is possible to learn a color boundary with respect to a color image, and to generate a color information estimation model in which a different color is learned according to the boundary.
Further, according to the image colorization apparatus according to the present invention, it is possible to generate a more accurate color image from a monochrome image by a simple operation in which the user explicitly gives color boundaries on the monochrome image.

本発明の概要を説明するための概要図である。It is a schematic diagram for explaining an outline of the present invention. 本発明の実施形態に係るカラー情報推定モデル生成装置の構成を示すブロック図である。It is a block diagram showing composition of a color information presumption model generation device concerning an embodiment of the present invention. 色指定学習データ生成手段が生成する色指定学習データ(色指定情報)のデータ構造を説明するための説明図である。It is explanatory drawing for demonstrating the data structure of the color designation | designated learning data (color designation | designated information) which a color | collar designation | designated learning data production | generation means produces | generates. 色指定情報のデータの一例を示す図である。It is a figure which shows an example of the data of color designation information. 境界学習データ生成手段が生成する境界学習データの一例を示す図であって、(a)は境界検出後、(b)はランダムに境界を選択した後のデータ例を示す。It is a figure which shows an example of the boundary learning data which a boundary learning data production | generation means produces | generates, Comprising: (a) shows the example of data after selecting a boundary at random after boundary detection. カラー情報推定モデルの一例を示すニューラルネットワークの構造図である。FIG. 5 is a structural diagram of a neural network showing an example of a color information estimation model. 本発明の実施形態に係るカラー情報推定モデル生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the color information estimation model production | generation apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る画像カラー化装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of an image coloring apparatus according to an embodiment of the present invention. 本発明の実施形態に係る画像カラー化装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image coloring apparatus based on embodiment of this invention. 本発明の実施形態に係る画像カラー化装置において、色指定や境界の指示により、生成するカラー画像がどのように変化するのかを模式的に示す図であって、(a)は色指定指示なし、境界指示なし、(b)は色指定指示あり、境界指示なし、(c)は色指定指示あり、境界指示あり(左寄り)、(d)は色指定指示あり、境界指示あり(右寄り)を示す。In the image colorization apparatus according to the embodiment of the present invention, it is a view schematically showing how a color image to be generated changes in accordance with a color specification and a boundary specification, wherein (a) is a color specification specification , (B) indicates color designation indication, (b) indicates color designation indication, (c) indicates boundary designation (left), (d) indicates color designation, (b) indicates boundary designation (right) Show.

以下、本発明の実施形態について図面を参照して説明する。
<本発明の概要>
まず、図1を参照して、本発明の概要について説明する。図1は、本発明の概要を説明するための概要図である。
図1に示すように、本発明に係るカラー情報推定モデル生成装置1は、カラー情報推定モデルMを生成するものである。また、本発明に係る画像カラー化装置2は、カラー情報推定モデル生成装置1が生成したカラー情報推定モデルMを用いて、モノクロ画像Pmのカラー情報を推定し、カラー画像Pcを生成するものである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<Overview of the Invention>
First, the outline of the present invention will be described with reference to FIG. FIG. 1 is a schematic diagram for explaining an overview of the present invention.
As shown in FIG. 1, the color information estimation model generation apparatus 1 according to the present invention generates a color information estimation model M. The image colorization device 2 according to the present invention estimates color information of a monochrome image Pm using the color information estimation model M generated by the color information estimation model generation device 1 to generate a color image Pc. is there.

カラー情報推定モデルMは、モノクロ画像Pmと、ユーザからの指示である色指定指示Icおよび境界指示Ibを示す情報とを入力し、モノクロ画像Pmのカラー情報を出力するニューラルネットワークである。   The color information estimation model M is a neural network that inputs a monochrome image Pm and information indicating a color designation instruction Ic and a boundary instruction Ib that are instructions from the user, and outputs color information of the monochrome image Pm.

モノクロ画像Pmは、白黒写真、フィルム等からスキャンした明度成分の情報を持つデジタル画像である。
色指定指示Icは、画像上のある位置における色の指定を行う指示である。例えば、色指定指示Icは、モノクロ画像Pmに対して、ある物体の正解の色が予め分かっている場合、その物体の位置とその色を指定するものである。
境界指示Ibは、色の境を示す位置の指定を行う指示である。例えば、境界指示Ibは、人物と背景との境界、重なりあった物体の境界等を指定するものである。
このカラー情報推定モデルMは、色指定指示Icで指定された位置を含んだ領域に対して指定された色を付けるように学習し、さらに、境界指示Ibで指定された境界で色を分けるように学習したものである。
The monochrome image Pm is a digital image having information of lightness components scanned from a black and white photograph, a film or the like.
The color specification instruction Ic is an instruction to specify a color at a certain position on the image. For example, when the color of the correct answer of a certain object is known in advance for the monochrome image Pm, the color specification instruction Ic specifies the position of the object and the color.
The boundary instruction Ib is an instruction for specifying a position indicating a color boundary. For example, the boundary designation Ib designates the boundary between a person and the background, the boundary between overlapping objects, and the like.
The color information estimation model M learns to apply the designated color to the area including the position designated by the color designation instruction Ic, and further, the color is separated at the boundary designated by the boundary designation Ib. Was learned to

画像カラー化装置2は、カラー情報推定モデルMによって、色指定指示Icで指示された位置を含んだ領域に対して、指定された色で着色するようにカラー情報を推定する。カラー情報は、カラー画像から色空間の明度成分を除いた色成分(第1色成分、第2色成分)の情報である。
また、画像カラー化装置2は、カラー情報推定モデルMによって、境界指示Ibで指示された境界で、色が区分されるようにカラー情報を推定する。
これによって、本発明は、モノクロ画像Pmに対するカラー情報を推定することで、より正確な色のカラー画像Pcを生成することができる。
以下、本発明に係るカラー情報推定モデル生成装置1および画像カラー化装置2について、より詳細に説明する。
The image colorization apparatus 2 estimates color information so that the area including the position designated by the color designation instruction Ic is colored with the designated color by the color information estimation model M. The color information is information of color components (first color component, second color component) obtained by removing the lightness component of the color space from the color image.
Further, the image colorization apparatus 2 estimates color information such that colors are classified by the color information estimation model M at the boundary indicated by the boundary instruction Ib.
Thus, the present invention can generate a more accurate color image Pc by estimating color information for the monochrome image Pm.
Hereinafter, the color information estimation model generation device 1 and the image colorization device 2 according to the present invention will be described in more detail.

<カラー情報推定モデル生成装置:構成>
まず、図2を参照して、カラー情報推定モデル生成装置1の構成について説明する。図2は、カラー情報推定モデル生成装置1の構成を示すブロック図である。
図2に示すように、カラー情報推定モデル生成装置1は、情報分離手段10と、色指定学習データ生成手段11と、境界学習データ生成手段12と、モデル学習手段13と、モデル記憶手段14と、を備える。
<Color Information Estimation Model Generation Device: Configuration>
First, the configuration of the color information estimation model generation device 1 will be described with reference to FIG. FIG. 2 is a block diagram showing the configuration of the color information estimation model generation apparatus 1.
As shown in FIG. 2, the color information estimation model generation apparatus 1 includes an information separation unit 10, a color designation learning data generation unit 11, a boundary learning data generation unit 12, a model learning unit 13, and a model storage unit 14. And.

カラー情報推定モデル生成装置1は、複数のカラー画像Poから、カラー情報推定モデルMを生成するものである。
カラー画像Poは、カラー情報推定モデルMを学習するための学習用データであって、予め大量(例えば、200万枚以上)に準備したカラー画像である。
このカラー画像Poは、カラー化の対象となるモノクロ画像Pm(図1参照)と同じ画像サイズ(垂直H画素×水平W画素)で、予め定めた色空間で表された画像である。ここでは、カラー画像Poは、Lab色空間で表された画像であるとする。
The color information estimation model generation device 1 generates a color information estimation model M from a plurality of color images Po.
The color image Po is learning data for learning the color information estimation model M, and is a color image prepared in advance in a large amount (for example, 2,000,000 sheets or more).
The color image Po is an image represented in a predetermined color space with the same image size (vertical H pixels × horizontal W pixels) as the monochrome image Pm (see FIG. 1) to be colored. Here, it is assumed that the color image Po is an image represented in Lab color space.

情報分離手段10は、入力したカラー画像Poを、モノクロ情報とカラー情報とに分離するものである。
具体的には、情報分離手段10は、Lab色空間の3チャンネルで構成されたカラー画像Poを、モノクロ情報であるLチャンネル(明度成分)と、カラー情報(明度成分以外の色成分)であるa,bチャンネル(第1色成分,第2色成分)とに分離する。
情報分離手段10は、分離したモノクロ情報(Lチャンネル)を、モデル学習手段13に出力する。
また、情報分離手段10は、分離したカラー情報(a,bチャンネル)を、色指定学習データ生成手段11、境界学習データ生成手段12およびモデル学習手段13に出力する。
The information separating means 10 separates the input color image Po into monochrome information and color information.
Specifically, the information separation unit 10 includes a color image Po configured by three channels of Lab color space, an L channel (brightness component) which is monochrome information, and color information (color components other than the brightness component). It is separated into a and b channels (first color component, second color component).
The information separation unit 10 outputs the separated monochrome information (L channel) to the model learning unit 13.
Further, the information separation unit 10 outputs the separated color information (a, b channels) to the color specification learning data generation unit 11, the boundary learning data generation unit 12 and the model learning unit 13.

色指定学習データ生成手段11は、ユーザがモノクロ画像上の位置とその位置に対応する色とを指示する色指定指示Ic(図1参照)の学習データ(色指定学習データ)を生成するものである。色指定学習データ生成手段11は、指示情報付加手段110と、ランダム色指定設定手段111と、を備える。   The color specification learning data generation means 11 generates learning data (color specification learning data) of a color specification instruction Ic (see FIG. 1) which instructs the user to indicate the position on the monochrome image and the color corresponding to the position. is there. The color specification learning data generation unit 11 includes an instruction information addition unit 110 and a random color specification setting unit 111.

指示情報付加手段110は、カラー情報(a,bチャンネル)のデータの各要素(画素)に対して、色指定の指示の有無を示す情報(指示情報)を付加するものである。
図3に示すように、カラー推定を行う画像のサイズをH(垂直画素数)×W(水平画素数)の大きさとしたとき、指示情報付加手段110は、カラー情報のチャンネルCh1,Ch2に、新たなチャンネルCh3を付加して、H×W×3の3チャンネルのデータ構造を持つ色指定情報DIcを生成する。
The instruction information adding means 110 adds information (instruction information) indicating the presence or absence of a color specification instruction to each element (pixel) of data of color information (channels a and b).
As shown in FIG. 3, when the size of the image to be subjected to color estimation is H (the number of vertical pixels) × W (the number of horizontal pixels), the instruction information adding unit 110 adds color information to channels Ch1 and Ch2. A new channel Ch3 is added to generate color designation information DIc having a data structure of H × W × 3 channels.

チャンネルCh1およびチャンネルCh2は、情報分離手段10で分離されたカラー情報(Lab色空間のa,bチャンネル)である。チャンネルCh1はaの値、チャンネルCh2はbの値で構成される。
チャンネルCh3は、画素に対する色指定の指示の有無を示す情報(指示情報)である。例えば、チャンネルCh3の各要素には、対応する要素の位置(画素位置)に色指定の指示がある場合に“1”、色指定の指示がない場合に“0”が設定される。ここでは、指示情報付加手段110は、初期値として、チャンネルCh3(指示情報)のすべての要素に色指定の指示あり(例えば“1”)を設定する。
The channel Ch1 and the channel Ch2 are color information (a and b channels of Lab color space) separated by the information separation unit 10. The channel Ch1 is composed of the value of a, and the channel Ch2 is composed of the value of b.
The channel Ch3 is information (instruction information) indicating the presence or absence of a color designation instruction for a pixel. For example, “1” is set to each element of the channel Ch3 when the color designation is instructed at the position (pixel position) of the corresponding element, and “0” is set when the color designation is not instructed. Here, the instruction information adding unit 110 sets, as an initial value, an indication (for example, “1”) of an instruction for color specification to all elements of the channel Ch3 (instruction information).

このように初期化された色指定情報DIcは、すべての画素位置に対して色指定を指示した色指定学習データ(完全色指定学習データ)となる。
指示情報付加手段110は、カラー情報(Ch1,Ch2)に指示情報(Ch3)を付加したデータ(色指定情報)を、ランダム色指定設定手段111に出力する。
The color designation information DIc thus initialized becomes color designation learning data (complete color designation learning data) in which color designation is designated for all pixel positions.
The instruction information adding unit 110 outputs data (color designation information) obtained by adding the instruction information (Ch 3) to the color information (Ch 1 and Ch 2) to the random color designation setting unit 111.

ランダム色指定設定手段111は、指示情報付加手段110で生成された色指定情報において、ランダムに選択した画素位置に色指定を指示する情報を設定するものである。
具体的には、ランダム色指定設定手段111は、“0”から全画素数(垂直H画素×水平W画素)までの範囲でランダムに選択した値を、色指定を指示する画素数(色指定画素数)とする。なお、ランダム色指定設定手段111は、色指定画素数を、例えば、予め定めた確率の幾何分布に従う数として算出すればよい。
そして、ランダム色指定設定手段111は、画像上(H×W)で色指定画素数分の画素位置(色指定画素位置)をランダムに選択する。なお、ランダム色指定設定手段111は、色指定画素位置を、予め定めた平均、分散の二次元正規分布、あるいは、一様分布に従うものとして算出すればよい。
The random color designation setting unit 111 sets information for instructing color designation at a randomly selected pixel position in the color designation information generated by the instruction information addition unit 110.
Specifically, the random color specification setting unit 111 specifies the number of pixels for which color specification is designated (color specification), with a value randomly selected in the range from “0” to the total number of pixels (vertical H pixels × horizontal W pixels). The number of pixels) The random color specification setting unit 111 may calculate the number of color specification pixels, for example, as the number according to the geometric distribution of the predetermined probability.
Then, the random color designation setting unit 111 randomly selects pixel positions (color designation pixel positions) corresponding to the number of color designation pixels on the image (H × W). Note that the random color specification setting unit 111 may calculate the color specification pixel position according to a predetermined average, a two-dimensional normal distribution of variance, or a uniform distribution.

ここでは、初期値として、指示情報(Ch3;図3)のすべての要素(画素)に色指定の指示あり(例えば“1”)を設定しているため、ランダム色指定設定手段111は、色指定画素位置以外の画素位置に対応する指示情報(Ch3)の要素位置に“0”を設定する。また、ランダム色指定設定手段111は、色指定指示情報(Ch3)に“0”が設定された要素位置に対応するカラー情報(a,bチャンネル〔Ch1,Ch2〕)の画素位置のaの値およびbの値を予め定めた固定値(“0”)に設定する。   Here, since the color designation instruction (for example, “1”) is set to all elements (pixels) of the instruction information (Ch 3; FIG. 3) as the initial value, the random color designation setting unit 111 “0” is set in the element position of the instruction information (Ch3) corresponding to the pixel position other than the specified pixel position. In addition, the random color specification setting unit 111 sets the value of “a” at the pixel position of color information (a, b channels [Ch1, Ch2]) corresponding to the element position where “0” is set in the color specification specification information (Ch3). The values of and b are set to a predetermined fixed value ("0").

例えば、図4に示すように、ランダム色指定設定手段111は、チャンネルCh3の二次元データ上の(x,y)座標である座標(3,1),(1,3),(3,3),(2,4)をランダムに選択した色指定画素位置とし、他の座標に“0”を設定したとする。その場合、ランダム色指定設定手段111は、チャンネルCh3で“0”を設定した要素位置に対応するチャンネルCh1,Ch2の要素の値に“0”を設定する。
これによって、色指定学習データ生成手段11は、指示情報(Ch3)のランダムに設定された要素位置に“1”が設定されている画素だけに、有効なカラー情報(a,bチャンネル〔Ch1,Ch2〕)の値を持つ色指定学習データを生成することができる。
色指定学習データ生成手段11は、生成した色指定学習データをモデル学習手段13に出力する。
For example, as shown in FIG. 4, the random color specification setting means 111 sets coordinates (3, 1), (1, 3), (3, 3) which are (x, y) coordinates on the two-dimensional data of the channel Ch3. , (2, 4) are assumed to be color designation pixel positions randomly selected, and “0” is set to the other coordinates. In that case, the random color specification setting unit 111 sets “0” to the element value of the channels Ch1 and Ch2 corresponding to the element position where “0” is set in the channel Ch3.
As a result, the color designation learning data generation unit 11 can obtain valid color information (a, b channels [Ch1, Ch2) only for pixels for which “1” is set at the element position randomly set in the designation information (Ch3). It is possible to generate color designation learning data having a value of Ch2]).
The color designation learning data generation means 11 outputs the generated color designation learning data to the model learning means 13.

境界学習データ生成手段12は、ユーザがモノクロ画像上の色の境を指示する境界指示Ib(図1参照)の学習データ(境界学習データ)を生成するものである。境界学習データ生成手段12は、境界検出手段120と、ランダム境界選択手段121と、を備える。   The boundary learning data generation unit 12 generates learning data (boundary learning data) of the boundary instruction Ib (see FIG. 1) which indicates the boundary of the color on the monochrome image by the user. The boundary learning data generation unit 12 includes a boundary detection unit 120 and a random boundary selection unit 121.

境界検出手段120は、カラー情報(a,bチャンネル)から、画素ごとに当該画素が色の境界となる画素であるか否かを検出するものである。
境界検出手段120は、画像サイズをH(垂直画素数)×W(水平画素数)の大きさとしたとき、H×W×1の1チャンネル分の境界情報を生成する。この境界情報は、要素(画素)ごとに、境界として検出されたか否かを示す値(例えば、境界であれば“1”、境界でなければ“0”)で構成される。
The boundary detection means 120 detects, from the color information (channels a and b), whether or not the pixel is a pixel serving as a color boundary for each pixel.
When the image size is H (the number of vertical pixels) × W (the number of horizontal pixels), the boundary detection unit 120 generates boundary information for one channel of H × W × 1. The boundary information is composed of values (for example, “1” for the boundary and “0” for the boundary) indicating whether or not the boundary is detected as the boundary for each element (pixel).

境界検出手段120は、aチャンネルおよびbチャンネルのそれぞれで色が大きく変化する境界の検出を行い、少なくとも一方のチャンネルで境界として検出された画素位置の要素に“1”、両方のチャンネルで境界として検出されなかった画素位置の要素に“0”を設定することで境界情報を生成する。
なお、境界検出手段120における境界の検出は、一般的なエッジ検出アルゴリズム(例えば、Cannyアルゴリズム)を用いて、周辺画素との値の差が予め定めた閾値よりも大きい画素を境界の画素として検出すればよい。
境界検出手段120は、境界の画素位置を示す境界情報をランダム境界選択手段121に出力する。
The boundary detection means 120 detects the boundary where color changes greatly in each of the a channel and the b channel, and at least one of the channels is an element of the pixel position detected as a boundary as “1” as a boundary in both channels. Boundary information is generated by setting “0” to the element of the pixel position not detected.
The boundary detection means 120 detects a boundary using a general edge detection algorithm (for example, the Canny algorithm) to detect a pixel whose difference in value with surrounding pixels is larger than a predetermined threshold value as a boundary pixel. do it.
The boundary detection unit 120 outputs boundary information indicating the pixel position of the boundary to the random boundary selection unit 121.

ランダム境界選択手段121は、境界検出手段120で生成された境界情報において、境界として設定された要素をランダムに選択するものである。
具体的には、ランダム境界選択手段121は、“0”から境界として設定された画素数(境界画素数)までの範囲でランダムに選択した値を、境界として指示する画素数(境界指示画素数)とする。なお、ランダム境界選択手段121は、境界指示画素数を、例えば、予め定めた確率の幾何分布に従う数として算出すればよい。
そして、ランダム境界選択手段121は、境界情報において、境界として設定された画素から、ランダムに境界指示画素数分の画素を選択する。ランダム境界選択手段121は、選択した境界指示画素以外の画素位置に“0”を設定する。
The random boundary selection unit 121 randomly selects an element set as a boundary in the boundary information generated by the boundary detection unit 120.
Specifically, the random boundary selection unit 121 specifies the number of pixels (border indication pixel number) which designates as a boundary a value randomly selected in a range from “0” to the number of pixels set as the boundary (the number of boundary pixels). And). The random boundary selection unit 121 may calculate the number of boundary designation pixels as, for example, the number according to the geometric distribution of the predetermined probability.
Then, the random boundary selection unit 121 randomly selects pixels corresponding to the number of boundary designation pixels from the pixels set as the boundary in the boundary information. The random boundary selection unit 121 sets “0” at pixel positions other than the selected boundary designation pixel.

例えば、図5(a)に示すように、境界検出後に境界の画素位置に“1”が設定されている場合、ランダム境界選択手段121は、図5(b)に示すように、“1”が設定されて画素から、ランダムに選択した画素位置の“1”のみを残して他の画素位置に“0”を設定する。なお、図5中、点線はカラー画像上の境界を示す。
これによって、境界学習データ生成手段12は、カラー情報から検出した境界の一部の画素位置で境界を指示する境界学習データを生成することができる。
境界学習データ生成手段12は、生成した境界学習データをモデル学習手段13に出力する。
For example, as shown in FIG. 5 (a), when “1” is set in the pixel position of the boundary after the boundary detection, the random boundary selection means 121 is “1” as shown in FIG. 5 (b). Is set, and “0” is set to the other pixel position leaving only “1” of the pixel position randomly selected from the pixel. In FIG. 5, dotted lines indicate boundaries on the color image.
By this, the boundary learning data generation unit 12 can generate boundary learning data that indicates the boundary at a part of pixel positions of the boundary detected from the color information.
The boundary learning data generation means 12 outputs the generated boundary learning data to the model learning means 13.

モデル学習手段13は、カラー情報を推定するカラー情報推定モデルを学習するものである。このモデル学習手段13は、情報分離手段10で分離された1チャンネルのモノクロ情報(Lチャンネル)と、色指定学習データ生成手段11で生成された3チャンネルの色指定学習データと、境界学習データ生成手段12で生成された1チャンネルの境界学習データとを学習データとして入力する。
そして、モデル学習手段13は、情報分離手段10で分離された2チャンネルのカラー情報(a,bチャンネル)を正解データとして、カラー情報推定モデルMの出力との誤差をなくす方向(誤差が予め定めた値以下になるよう)に、誤差逆伝播法を用いてカラー情報推定モデルM(具体的にはそのモデルパラメータ)を学習する。
モデル学習手段13は、学習したカラー情報推定モデルMをモデル記憶手段14に書き込み記憶する。
The model learning means 13 learns a color information estimation model for estimating color information. The model learning unit 13 generates monochrome learning information (L channel) of one channel separated by the information separating unit 10, color designation learning data of three channels generated by the color designation learning data generation unit 11, and boundary learning data generation. The boundary learning data of one channel generated by the means 12 is input as learning data.
Then, the model learning unit 13 sets the color information (channels a and b) of the two channels separated by the information separating unit 10 as correct data, and eliminates the error with the output of the color information estimation model M (error is predetermined The color information estimation model M (specifically, its model parameters) is learned using an error back propagation method so as to be less than or equal to
The model learning means 13 writes and stores the learned color information estimation model M in the model storage means 14.

ここで、図6を参照して、モデル学習手段13が学習するカラー情報推定モデルMの構成例について説明する。
図6に示すように、カラー情報推定モデルMは、畳み込み層を含んだニューラルネットワークで構成することができる。
Here, a configuration example of the color information estimation model M learned by the model learning unit 13 will be described with reference to FIG.
As shown in FIG. 6, the color information estimation model M can be configured by a neural network including a convolutional layer.

図6に示すように、カラー情報推定モデルMは、入力層Iとして、1チャンネル(1ch)のモノクロ画像と、3チャンネルの色指定情報と、1チャンネルの境界情報と、を入力する。   As shown in FIG. 6, the color information estimation model M inputs, as an input layer I, a monochrome image of one channel (1 ch), color designation information of three channels, and boundary information of one channel.

また、カラー情報推定モデルMは、隠れ層(中間層)Hとして、複数のコンボリューション層(C1〜C6)を有する。
カラー情報推定モデルMは、コンボリューション層C1において、複数のカーネル(畳み込みフィルタ)により、モノクロ画像(1ch)を、モノクロ画像と同じ画像サイズ(垂直H画素×水平W画素)で、予め定めたチャンネル数N(例えば、N=64)のデータに畳み込む。
Also, the color information estimation model M has a plurality of convolution layers (C1 to C6) as the hidden layer (intermediate layer) H.
The color information estimation model M is a channel defined in advance by a plurality of kernels (convolution filters) in the convolution layer C1 and having a monochrome image (1 ch) in the same image size (vertical H pixels × horizontal W pixels) as the monochrome image. Convolve into a number N (eg, N = 64) of data.

また、カラー情報推定モデルMは、コンボリューション層C2において、複数のカーネルにより、色指定情報(3ch)を、H×W画素のチャンネル数Nのデータに畳み込む。また、カラー情報推定モデルMは、コンボリューション層C3において、複数のカーネルにより、境界情報(1ch)を、H×W画素のチャンネル数Nのデータに畳み込む。
そして、カラー情報推定モデルMは、加算器Sにより、Nchに畳み込まれた情報(モノクロ画像、色指定情報、境界情報)を加算する。なお、加算器Sを用いずに、3×Nチャンネルの連結した情報としてもよい。
Further, the color information estimation model M convolutes the color designation information (3 ch) into data of the number N of channels of H × W pixels in the convolution layer C 2 by a plurality of kernels. In addition, the color information estimation model M convolutes the boundary information (1 ch) into data of the number N of channels of H × W pixels in the convolution layer C3 by a plurality of kernels.
Then, the color information estimation model M adds the information (monochrome image, color designation information, boundary information) convoluted to Nch by the adder S. It is also possible to use concatenated information of 3 × N channels without using the adder S.

そして、カラー情報推定モデルMは、コンボリューション層C4,C5により、順次、複数のカーネルにより、畳み込みを行う。
最後に、カラー情報推定モデルMは、コンボリューション層C6により、Nchの情報を2chの情報に畳み込む。
カラー情報推定モデルMは、出力層Oとして、2チャンネルの情報をカラー情報であるa,bチャンネルとして出力する。
モデル学習手段13は、各コンボリューション層のカーネル、重み等をモデルパラメータとして学習する。
Then, the color information estimation model M performs convolution using a plurality of kernels sequentially by the convolution layers C4 and C5.
Finally, the color information estimation model M convolves Nch information into 2ch information by the convolution layer C6.
The color information estimation model M outputs information of two channels as an output layer O as channels a and b which are color information.
The model learning unit 13 learns kernels and weights of the convolution layers as model parameters.

なお、カラー情報推定モデルMのニューラルネットワークの構造は、この実施形態に限定されるものではない。例えば、コンボリューション層の数とパラメータ数(カーネルサイズ、チャンネル数)を変更してもよいし、コンボリューション層以外の層(例えば、全結合層、ノーマライゼーション層)を追加してもよい。   The structure of the neural network of the color information estimation model M is not limited to this embodiment. For example, the number of convolution layers and the number of parameters (kernel size, number of channels) may be changed, or layers other than convolution layers (for example, all bonding layers, normalization layers) may be added.

図2に戻って、カラー情報推定モデル生成装置1の構成について説明を続ける。
モデル記憶手段14は、モデル学習手段13で学習するカラー情報推定モデルMを記憶するものである。このモデル記憶手段14は、半導体メモリ等の一般的な記憶媒体で構成することができる。学習後のカラー情報推定モデルMは、画像カラー化装置2(図1参照)で用いられる。
なお、カラー情報推定モデル生成装置1は、コンピュータを、前記した各手段として機能させるためのカラー情報推定モデル生成プログラムで動作させることができる。
Returning to FIG. 2, the configuration of the color information estimation model generation device 1 will be described.
The model storage unit 14 stores the color information estimation model M learned by the model learning unit 13. The model storage means 14 can be configured by a general storage medium such as a semiconductor memory. The color information estimation model M after learning is used in the image colorization device 2 (see FIG. 1).
The color information estimation model generation apparatus 1 can be operated by a color information estimation model generation program for causing a computer to function as each of the above-described units.

以上説明したようにカラー情報推定モデル生成装置1を構成することで、カラー情報推定モデル生成装置1は、モノクロ画像、色指定情報、境界情報を入力として、カラー情報を推定するカラー情報推定モデルMを学習により生成することができる。
また、カラー情報推定モデル生成装置1は、カラー情報推定モデルMを生成する際に、モノクロ画像、色指定情報、境界情報を学習データとして準備することなく、カラー画像Poから学習データを生成することができる。
As described above, by configuring the color information estimation model generation device 1, the color information estimation model generation device 1 receives the monochrome image, the color designation information, and the boundary information as input, and estimates the color information estimation model M. Can be generated by learning.
Also, when generating the color information estimation model M, the color information estimation model generation device 1 generates learning data from the color image Po without preparing a monochrome image, color designation information, and boundary information as learning data. Can.

<カラー情報推定モデル生成装置:動作>
次に、図7を参照(構成については、適宜図2参照)して、カラー情報推定モデル生成装置1の動作について説明する。図7は、カラー情報推定モデル生成装置1の動作を示すフローチャートである。
ステップS1において、情報分離手段10は、入力したカラー画像を、カラー情報であるa,bチャンネル(2チャンネル)と、モノクロ情報であるLチャンネル(1チャンネル)とに分離する。なお、カラー画像から分離したモノクロ情報は、モノクロ画像であって、そのまま、カラー情報推定モデルMを学習するための学習データ(モノクロ画像学習データ)となる。
<Color Information Estimation Model Generation Device: Operation>
Next, the operation of the color information estimation model generation apparatus 1 will be described with reference to FIG. 7 (for the configuration, refer to FIG. 2 as needed). FIG. 7 is a flowchart showing the operation of the color information estimation model generation apparatus 1.
In step S1, the information separation unit 10 separates the input color image into the a and b channels (two channels) as color information and the L channel (one channel) as monochrome information. The monochrome information separated from the color image is a monochrome image, and directly becomes learning data (monochrome image learning data) for learning the color information estimation model M.

ステップS2において、色指定学習データ生成手段11の指示情報付加手段110は、全要素(全画素)に色指定の指示あり(例えば“1”)の指示情報を設定した1チャンネルのデータを生成し、ステップS1で分離したカラー情報(a,bチャンネル)に付加する。これによって、指示情報付加手段110は、3チャンネルの色指定情報を生成する。   In step S2, the instruction information adding unit 110 of the color specification learning data generation unit 11 generates data of one channel in which the instruction information having a color specification instruction (for example, "1") is set to all elements (all pixels). , And added to the color information (a, b channels) separated in step S1. Thus, the instruction information adding unit 110 generates color specification information of three channels.

ステップS3において、色指定学習データ生成手段11のランダム色指定設定手段111は、ステップS2で生成した3チャンネルの色指定情報でランダムに選択した要素(画素)に“0”を設定する。これによって、色指定学習データ生成手段11は、1チャンネルの指示情報において“1”が設定されている要素位置に対応するカラー情報(a,bチャンネル)の画素だけに、有効なa,bの値を持つ色指定学習データを生成する。   In step S3, the random color designation setting unit 111 of the color designation learning data generation unit 11 sets "0" to an element (pixel) randomly selected in the color designation information of the three channels generated in step S2. As a result, the color specification learning data generation means 11 can only use the a and b pixels effective for the pixels of the color information (channels a and b) corresponding to the element position at which “1” is set in the instruction information on one channel. Generate color specification learning data with values.

ステップS4において、境界学習データ生成手段12の境界検出手段120は、ステップS1で分離したカラー情報であるaチャンネルまたはbチャンネルの少なくとも一方で色が大きく変化する色の境界を検出する。
ステップS5において、境界検出手段120は、境界として検出された画素位置の要素に“1”、境界として検出されなかった画素位置の要素に“0”を設定した1チャンネルのデータ(境界情報)を生成する。
In step S4, the boundary detection unit 120 of the boundary learning data generation unit 12 detects a boundary of a color whose color changes greatly in at least one of the a channel and the b channel which are the color information separated in step S1.
In step S5, the boundary detection unit 120 sets data of one channel (boundary information) in which “1” is set to the element at the pixel position detected as the boundary and “0” is set to the element at the pixel position not detected as the boundary. Generate

ステップS6において、境界学習データ生成手段12のランダム境界選択手段121は、ステップS5で生成した境界情報として“1”が設定されている要素のうちで、ランダムに選択した要素に“0”を設定する。これによって、境界学習データ生成手段12は、カラー情報から検出した境界の一部の画素位置で境界を指示する境界学習データを生成する。   In step S6, the random boundary selection means 121 of the boundary learning data generation means 12 sets “0” to the element selected at random among the elements for which “1” is set as the boundary information generated in step S5. Do. By this, the boundary learning data generation unit 12 generates boundary learning data indicating a boundary at a part of pixel positions of the boundary detected from the color information.

ステップS7において、モデル学習手段13は、ステップS1で分離したモノクロ画像学習データと、ステップS3で生成した色指定学習データと、ステップS6で生成した境界学習データとを入力し、正解データであるステップS1で分離したカラー情報(a,bチャンネル)を出力するように、カラー情報推定モデルMを学習する。
ステップS8において、モデル学習手段13は、予め定めたカラー画像の入力が終了した、あるいは、学習による推定誤差の変化量が閾値以下となったかにより、学習の終了を判定する。
In step S7, the model learning means 13 inputs the monochrome image learning data separated in step S1, the color designation learning data generated in step S3, and the boundary learning data generated in step S6, and is the correct data. The color information estimation model M is learned so as to output the color information (a, b channels) separated in S1.
In step S8, the model learning unit 13 determines the end of learning based on whether input of a predetermined color image has ended or the amount of change in estimation error due to learning has become equal to or less than a threshold.

ここで、学習が終了していなければ(ステップS8でNo)、カラー情報推定モデル生成装置1は、ステップS1に戻って、他のカラー画像を入力し、学習を継続する。
一方、学習が終了した場合(ステップS8でYes)、ステップS9において、モデル学習手段13は、学習したカラー情報推定モデルMをモデル記憶手段14に書き込み記憶する。
以上の動作によって、カラー情報推定モデル生成装置1は、カラー画像のみから、モノクロ画像、色指定情報、境界情報を入力として、カラー情報を推定するカラー情報推定モデルを学習により生成することができる。
Here, if the learning is not completed (No in step S8), the color information estimation model generation device 1 returns to step S1, inputs another color image, and continues the learning.
On the other hand, when learning is completed (Yes in step S8), in step S9, the model learning means 13 writes the learned color information estimation model M in the model storage means 14 and stores it.
By the above operation, the color information estimation model generation apparatus 1 can generate a color information estimation model for estimating color information by learning from a color image only, using a monochrome image, color designation information, and boundary information as input.

<画像カラー化装置:構成>
次に、図8を参照して、画像カラー化装置2の構成について説明する。図8は、画像カラー化装置2の構成を示すブロック図である。
図8に示すように、画像カラー化装置2は、画像入力手段20と、色指定指示手段21と、色指定情報生成手段22と、境界指示手段23と、境界情報生成手段24と、モデル記憶手段25と、カラー情報推定手段26と、カラー情報合成手段27と、を備える。
<Image colorization device: Configuration>
Next, the configuration of the image colorization device 2 will be described with reference to FIG. FIG. 8 is a block diagram showing the configuration of the image colorization device 2.
As shown in FIG. 8, the image colorization apparatus 2 includes an image input unit 20, a color designation instruction unit 21, a color designation information generation unit 22, a boundary instruction unit 23, a boundary information generation unit 24, and a model storage. A means 25, a color information estimating means 26 and a color information combining means 27 are provided.

画像入力手段20は、カラー化を行う対象のモノクロ画像Pmを入力するものである。画像入力手段20は、入力したモノクロ画像PmをLab空間のLチャンネル(1チャンネル)のモノクロ情報(モノクロ画像)として、カラー情報推定手段26およびカラー情報合成手段27に出力する。   The image input means 20 is for inputting a monochrome image Pm to be colored. The image input unit 20 outputs the input monochrome image Pm to the color information estimation unit 26 and the color information synthesis unit 27 as monochrome information (monochrome image) of L channel (1 channel) of Lab space.

色指定指示手段21は、モノクロ画像Pm上で、ユーザが色指定を行いたい位置および色を色指定指示Icとして入力するものである。この色指定指示手段21は、図示を省略した表示装置にモノクロ画像Pmを表示して、マウス、キーボード等の入力手段を介して、色指定指示を入力するものであってもよい。   The color designating instruction unit 21 is for inputting a position and a color at which the user wishes to designate a color on the monochrome image Pm as a color designating instruction Ic. The color designation instruction unit 21 may display the monochrome image Pm on a display device (not shown) and input the color designation instruction through an input unit such as a mouse and a keyboard.

色指定指示Icの位置は、モノクロ画像Pm上の画素位置である。この画素位置は、複数であっても構わない。
色指定指示Icの色は、色指定指示Icの位置に対応する色であって、Lab空間のa,bチャンネルの値(ab値)である。なお、色指定指示Icの色は、a,bチャンネルの値である必要はなく、例えば、RGB値等、他の色空間の色であっても構わない。その場合、色指定指示手段21は、色空間変換を行い、Lab空間のa,bチャンネルの値を求めればよい。
色指定指示手段21は、指示された位置および色(ab値)を、色指定情報生成手段22に出力する。
The position of the color designation instruction Ic is a pixel position on the monochrome image Pm. A plurality of pixel positions may be provided.
The color of the color designation instruction Ic is a color corresponding to the position of the color designation instruction Ic, and is the values (ab values) of the a and b channels in the Lab space. The color of the color designation instruction Ic does not have to be the values of the a and b channels, and may be, for example, a color of another color space such as an RGB value. In that case, the color specification instructing unit 21 may perform color space conversion to obtain the values of the a and b channels in the Lab space.
The color designation instruction unit 21 outputs the designated position and color (ab value) to the color designation information generation unit 22.

なお、色指定指示手段21は、すべての位置に対して色指定を行わないことを示す指示を入力してもよい。その場合、色指定指示手段21は、色指定を行わないことを示す指示を色指定情報生成手段22に出力する。   The color designating instruction unit 21 may input an instruction indicating that the color designation is not performed for all the positions. In that case, the color designation instruction unit 21 outputs an instruction indicating that color designation is not performed to the color designation information generation unit 22.

色指定情報生成手段22は、色指定指示Icから、カラー情報推定モデルMの入力となる色指定情報を生成するものである。
色指定情報生成手段22は、モノクロ画像Pmの画像のサイズをH(垂直画素数)×W(水平画素数)の大きさとしたとき、H×W×3の3チャンネルのデータ構造を持つ色指定情報を生成する。この色指定情報は、図3で説明したデータ構造と同じである。
The color designation information generation unit 22 generates color designation information as an input of the color information estimation model M from the color designation instruction Ic.
The color designation information generation unit 22 designates a color having a data structure of H × W × 3 when the size of the monochrome image Pm is H (vertical pixel number) × W (horizontal pixel number) size. Generate information. This color designation information is the same as the data structure described in FIG.

色指定情報生成手段22は、図3に示したデータ構造において、チャンネルCh1の指示された位置の要素に指示されたa値を設定し、チャンネルCh1の他の要素に予め定めた固定値(“0”)を設定する。
また、色指定情報生成手段22は、チャンネルCh2の指示された位置の要素に指示されたb値を設定し、チャンネルCh2の他の要素に予め定めた固定値(“0”)を設定する。
The color designating information generating means 22 sets the designated a value to the element at the designated position of the channel Ch1 in the data structure shown in FIG. Set 0 ”).
In addition, the color designation information generation means 22 sets the designated b value to the element at the designated position of the channel Ch2, and sets a predetermined fixed value ("0") to the other elements of the channel Ch2.

また、色指定情報生成手段22は、チャンネルCh3の指示された位置の要素に、色指定の指示があることを示す値(“1”)を設定し、チャンネルCh3の他の要素に、色指定の指示がないことを示す値(“0”)を設定する。
なお、色指定情報生成手段22は、色指定指示手段21から、すべての位置に対して色指定を行わないことを示す指示を入力した場合、3チャンネルのすべての要素に“0”を設定すればよい。
色指定情報生成手段22は、生成した3チャンネルの色指定情報を、カラー情報推定手段26に出力する。
Further, the color designation information generation means 22 sets a value ("1") indicating that there is a color designation instruction in the element at the designated position of the channel Ch3, and designates the color in the other elements of the channel Ch3. Set a value (“0”) indicating that there is no indication of.
When color designation information generation means 22 receives from color designation indication means 21 an instruction indicating that color designation is not performed for all positions, “0” is set for all elements of three channels. Just do it.
The color designation information generation means 22 outputs the generated color designation information of the three channels to the color information estimation means 26.

境界指示手段23は、モノクロ画像Pm上で、ユーザが境界として指定を行いたい位置を境界指示Ibとして入力するものである。この境界指示手段23は、図示を省略した表示装置にモノクロ画像Pmを表示して、マウス等の入力手段を介して、境界指示を入力するものであってもよい。   The boundary designating means 23 is for inputting, as a boundary designating Ib, a position on the monochrome image Pm where the user wishes to designate as a boundary. The boundary instructing unit 23 may display the monochrome image Pm on a display device (not shown) and input the boundary instruction through an input unit such as a mouse.

境界指示Ibは、モノクロ画像Pm上の境界を示す画素位置である。この画素位置は、1点であってもよいし、複数であってもよい。例えば、指示された位置が2点であれば、それらの点を結ぶ直線が境界となる。また、指示された位置が3点以上であれば、それらの点を結ぶ曲線が境界となる。また、境界指示Ibは、これらの組み合わせであっても構わない。
境界指示手段23は、指示された位置を、境界情報生成手段24に出力する。
なお、境界指示手段23は、境界指定を行わないことを示す指示を入力してもよい。その場合、境界指示手段23は、境界指定を行わないことを示す指示を境界情報生成手段24に出力する。
The boundary designation Ib is a pixel position indicating a boundary on the monochrome image Pm. This pixel position may be one point or plural points. For example, if the designated position is two points, a straight line connecting those points is the boundary. Also, if the instructed position is three or more points, a curve connecting those points is the boundary. Further, boundary designation Ib may be a combination of these.
The boundary instructing unit 23 outputs the instructed position to the boundary information generating unit 24.
The boundary instructing unit 23 may input an instruction indicating that no boundary is to be specified. In that case, the boundary instructing unit 23 outputs, to the boundary information generating unit 24, an instruction indicating that the boundary specification is not performed.

境界情報生成手段24は、境界指示Ibから、カラー情報推定モデルMの入力となる境界情報を生成するものである。
境界情報生成手段24は、モノクロ画像Pmの画像のサイズをH(垂直画素数)×W(水平画素数)の大きさとしたとき、H×W×1の1チャンネルのデータ構造を持つ境界情報を生成する。
境界情報生成手段24は、境界指示Ibで特定される画素位置に対応する要素に、当該画素位置が境界であることを示す値(“1”)を設定し、他の要素に境界ではないことを示す値(“0”)を設定する。
The boundary information generation means 24 generates boundary information to be input of the color information estimation model M from the boundary instruction Ib.
When the size of the monochrome image Pm is H (the number of vertical pixels) × W (the number of horizontal pixels), the boundary information generation unit 24 has boundary information having a data structure of H × W × 1 channel. Generate
The boundary information generation unit 24 sets a value (“1”) indicating that the pixel position is a boundary to an element corresponding to the pixel position specified by the boundary instruction Ib, and does not indicate to other elements as a boundary. Set a value (“0”) indicating.

なお、境界指示Ibで2点が指示された場合、境界情報生成手段24は、指示された2点間を結ぶ直線上の要素に、境界であることを示す値(“1”)を設定する。また、境界指示Ibで3点以上が指示された場合、境界情報生成手段24は、指示された3点以上を結ぶ曲線を、例えば、スプライン曲線で近似し、曲線上の要素に、境界であることを示す値(“1”)を設定する。
なお、境界情報生成手段24は、境界指示手段23から、境界指定を行わないことを示す指示を入力した場合、1チャンネルの境界情報のすべての要素に“0”を設定すればよい。
境界情報生成手段24は、生成した1チャンネルの境界情報を、カラー情報推定手段26に出力する。
When two points are indicated by the boundary indication Ib, the boundary information generation means 24 sets a value (“1”) indicating an edge as an element on a straight line connecting the indicated two points. . Also, when three or more points are indicated by the boundary indication Ib, the boundary information generation means 24 approximates a curve connecting the indicated three or more points with, for example, a spline curve, and the element on the curve is a boundary Set a value (“1”) to indicate that.
The boundary information generation unit 24 may set “0” to all elements of the boundary information of one channel when an instruction indicating that the boundary specification is not performed is input from the boundary instruction unit 23.
The boundary information generation unit 24 outputs the generated boundary information of one channel to the color information estimation unit 26.

モデル記憶手段25は、図2で説明したカラー情報推定モデル生成装置1で生成されたカラー情報推定モデルMを記憶するものである。このモデル記憶手段25は、半導体メモリ等の一般的な記憶媒体で構成することができる。
カラー情報推定モデルMは、カラー情報推定手段26によって参照される。
The model storage unit 25 stores the color information estimation model M generated by the color information estimation model generation apparatus 1 described with reference to FIG. The model storage means 25 can be configured by a general storage medium such as a semiconductor memory.
The color information estimation model M is referred to by the color information estimation means 26.

カラー情報推定手段26は、モノクロ画像、色指定情報および境界情報を入力し、カラー情報推定モデルMを用いて、カラー情報(a,bチャンネル)を推定するものである。
カラー情報推定手段26は、画像入力手段20から、1チャンネルのモノクロ画像を入力する。また、カラー情報推定手段26は、色指定情報生成手段22から、3チャンネルの色指定情報を入力する。また、カラー情報推定手段26は、境界情報生成手段24から、1チャンネルの境界情報を入力する。
The color information estimation means 26 inputs a monochrome image, color designation information and boundary information, and estimates color information (channels a and b) using the color information estimation model M.
The color information estimation unit 26 receives a monochrome image of one channel from the image input unit 20. Further, the color information estimation unit 26 receives color designation information of three channels from the color designation information generation unit 22. Further, the color information estimation unit 26 receives the boundary information of one channel from the boundary information generation unit 24.

このカラー情報推定手段26は、図6に示したカラー情報推定モデルMにより、モノクロ画像、色指定情報および境界情報を入力層Iへの入力とし、出力層Oから出力される2チャンネルのカラー情報(a,bチャンネル)を演算により生成する。
カラー情報推定手段26は、推定したカラー情報(a,bチャンネル)を、カラー情報合成手段27に出力する。
The color information estimation means 26 uses the color information estimation model M shown in FIG. 6 to input monochrome image, color designation information and boundary information to the input layer I, and output color information of two channels output from the output layer O (A, b channels) are generated by calculation.
The color information estimation means 26 outputs the estimated color information (a, b channels) to the color information combining means 27.

カラー情報合成手段27は、画像入力手段20から入力したモノクロ画像をLab色空間のLチャンネルとし、カラー情報推定手段26が推定したカラー情報(a,bチャンネル)を合成するものである。
カラー情報合成手段27は、Lチャンネル、aチャンネルおよびbチャンネルの3チャンネルのデータを、3チャンネルのデータ構造を有するLab色空間のカラー画像Pcとして出力する。
なお、画像カラー化装置2は、コンピュータを、前記した各手段として機能させるための画像カラー化プログラムで動作させることができる。
The color information combining unit 27 sets the monochrome image input from the image input unit 20 as the L channel of the Lab color space, and combines the color information (channels a and b) estimated by the color information estimating unit 26.
The color information combining unit 27 outputs data of three channels of L channel, a channel and b channel as a color image Pc of Lab color space having a data structure of three channels.
The image coloring apparatus 2 can be operated by an image coloring program for causing a computer to function as each of the above-described units.

以上説明したように画像カラー化装置2を構成することで、画像カラー化装置2は、モノクロ画像に対して、ユーザから色指定および境界を指示されることで、カラー情報を推定し、カラー画像を生成することができる。   By configuring the image colorization apparatus 2 as described above, the image colorization apparatus 2 estimates color information for the monochrome image by the user specifying the color and instructing the boundary, and the color image is estimated. Can be generated.

<画像カラー化装置:動作>
次に、図9を参照(構成については、適宜図8参照)して、画像カラー化装置2の動作について説明する。図9は、画像カラー化装置2の動作を示すフローチャートである。
ステップS10において、画像入力手段20は、カラー化を行う対象のモノクロ画像を入力する。モノクロ画像は、カラー情報推定モデルMへの入力となるとともに、最終的に生成するカラー画像を構成するLab色空間のLチャンネルとなる。
<Image colorization device: Operation>
Next, the operation of the image coloring apparatus 2 will be described with reference to FIG. 9 (for the configuration, refer to FIG. 8 as needed). FIG. 9 is a flowchart showing the operation of the image colorization device 2.
In step S10, the image input unit 20 inputs a monochrome image to be colored. The monochrome image becomes an input to the color information estimation model M and also becomes an L channel of the Lab color space which constitutes a color image to be finally generated.

ステップS11において、色指定指示手段21は、モノクロ画像上で、ユーザが色指定を行いたい位置および色を色指定指示として入力する。
ステップS12において、色指定情報生成手段22は、ステップS11で入力した色指定指示から、カラー情報推定モデルMの入力となる3チャンネルの色指定情報を生成する。色指定情報生成手段22は、色指定が指示された画素位置において、指定されたカラー情報であるLab色空間のa値、b値、ならびに、当該画素位置に色指定が指示されていることを示す値(“1”)を、3チャンネルの対応する要素(画素)に設定することで、色指定情報を生成する。なお、色指定情報生成手段22は、色指定が指示されていない画素位置に対応する要素には、すべて色指定が指示されていることを示す値(“0”)を設定する。
In step S11, the color designating instruction unit 21 inputs, as a color designating instruction, a position and a color at which the user desires to designate the color on the monochrome image.
In step S12, the color designation information generation unit 22 generates color designation information of three channels serving as an input of the color information estimation model M from the color designation instruction input in step S11. The color designation information generation unit 22 determines that the color designation is designated at the pixel position where the color designation is designated, at the pixel position at which the color designation is designated, the a value and the b value of the Lab color space which is the designated color information. Color designation information is generated by setting the indicated value ("1") to the corresponding elements (pixels) of three channels. The color designation information generation unit 22 sets a value (“0”) indicating that color designation is instructed for all elements corresponding to pixel positions for which color designation is not instructed.

ステップS13において、境界指示手段23は、モノクロ画像上で、ユーザが境界として指定を行いたい位置を境界指示として入力する。
ステップS14において、境界情報生成手段24は、ステップS13で入力した境界指示から、カラー情報推定モデルMの入力となる1チャンネルの境界情報を生成する。境界情報生成手段24は、境界指示Ibで特定される画素位置に対応する要素に、境界であることを示す値(“1”)、他の要素に境界ではないことを示す値(“0”)を設定することで、境界情報を生成する。
In step S13, the boundary instructing unit 23 inputs, as a boundary instruction, a position where the user wishes to specify as a boundary on the monochrome image.
In step S14, the boundary information generation unit 24 generates boundary information of one channel, which is an input of the color information estimation model M, from the boundary instruction input in step S13. The boundary information generation means 24 sets the element corresponding to the pixel position specified by the boundary instruction Ib to a value indicating that it is a boundary (“1”) and a value indicating that other elements are not a boundary (“0”) Boundary information is generated by setting).

ステップS15において、カラー情報推定手段26は、ステップS10で入力したモノクロ画像、ステップS12で生成した色指定情報、および、ステップS14で生成した境界情報から、カラー情報推定モデルMを用いて、カラー情報(a,bチャンネル)を推定する。   In step S15, the color information estimation unit 26 uses the color information estimation model M to obtain color information from the monochrome image input in step S10, the color designation information generated in step S12, and the boundary information generated in step S14. Estimate (a, b channels).

ステップS16において、カラー情報合成手段27は、ステップS10で入力したモノクロ画像をLab色空間のLチャンネルとし、ステップS15で推定したカラー情報(a,bチャンネル)を合成することで、カラー画像を生成する。
以上の動作によって、画像カラー化装置2は、カラー情報推定モデル生成装置1で生成したカラー情報推定モデルを用いて、ユーザから色指定や境界の指示を入力することで、正確なカラー画像を生成することができる。
In step S16, the color information combining unit 27 generates the color image by setting the monochrome image input in step S10 as the L channel of the Lab color space and combining the color information (a, b channels) estimated in step S15. Do.
By the above operation, the image colorization device 2 generates an accurate color image by inputting a color designation and a boundary instruction from the user using the color information estimation model generated by the color information estimation model generation device 1 can do.

<画像カラー化装置のカラー画像生成例>
次に、図10を参照して、色指定や境界の指示により、画像カラー化装置2が生成するカラー画像がどのように変化するのかを模式的に説明する。
図10は、色指定指示と境界指示とをそれぞれ行った場合のカラー画像の着色状態を示す。図10中、矢印の左側の図形(ここでは、茶碗)がモノクロ画像、矢印の右側の図形(茶碗)がモノクロ画像をカラー化したカラー画像Pc(Pc1〜Pc4)を模式的に示している。なお、図10では、色の違いをハッチングの違いで表している。また、茶碗中央の帯状領域Zは、輝度値の変化が少ない領域とする。
<Example of color image generation of image colorization device>
Next, with reference to FIG. 10, how the color image generated by the image colorization device 2 changes in accordance with the color designation and the boundary designation will be schematically described.
FIG. 10 shows the colored state of the color image when the color designation instruction and the boundary instruction are respectively given. In FIG. 10, the figure on the left side of the arrow (here, a bowl) indicates a monochrome image, and the figure on the right of the arrow (a bowl) schematically indicates a color image Pc (Pc1 to Pc4) in which the monochrome image is colored. In FIG. 10, the difference in color is indicated by the difference in hatching. In addition, the band-shaped area Z at the center of the teacup is an area in which the change in luminance value is small.

図10(a)は、色指定の指示と境界の指示とがともにない場合を示している。
この場合、茶碗中央の帯状領域Zの輝度値の変化が少ないため、カラー画像Pc1のように、帯状領域Zは、ほぼ同じ色で着色されることになる。
図10(b)は、色指定の指示があり、境界の指示がない場合を示している。また、ここでは、帯状領域の左側に色Aを指定し、右側に色Bを指定している。
この場合、カラー画像Pc2のように、帯状領域Zは、指定された色A,Bで着色される。ただし、帯状領域Zの輝度値の変化が少ないため、色Aと色Bとの境界はにじんだ色となる。
FIG. 10A shows the case where neither the color designation instruction nor the boundary instruction is present.
In this case, since the change in luminance value of the band-shaped area Z at the center of the teacup is small, the band-shaped area Z is colored in substantially the same color as in the color image Pc1.
FIG. 10B shows the case where there is a color designation instruction and no boundary designation. Also, here, the color A is specified on the left side of the band-like region, and the color B is specified on the right side.
In this case, as in the color image Pc2, the band-shaped area Z is colored with the designated colors A and B. However, the boundary between the color A and the color B is a blurred color because the change in the luminance value of the strip area Z is small.

図10(c)は、色指定の指示と境界の指示とがともにあり、境界Cを左寄りに指示した場合を示している。
この場合、カラー画像Pc3のように、帯状領域Zは、指定された左寄りの境界で、指定された色A,Bが分かれて着色される。
図10(d)は、色指定の指示と境界の指示とがともにあり、境界Dを右寄りに指示した場合を示している。
この場合、カラー画像Pc4のように、帯状領域Zは、指定された右寄りの境界で、指定された色A,Bが分かれて着色される。
FIG. 10C shows the case where the color designation instruction and the boundary instruction are both present, and the boundary C is indicated to the left.
In this case, as in the color image Pc3, in the band-shaped area Z, the designated colors A and B are divided and colored at the designated left boundary.
FIG. 10D shows the case where the color designation instruction and the boundary instruction are both present, and the boundary D is indicated to the right.
In this case, as in the color image Pc4, in the band-shaped area Z, the designated colors A and B are separately colored at the designated right boundary.

なお、ここでは、直線で境界を指示した例を示している。この境界は点で指定してもよく、例えば、図10(c)(d)において、点で境界を指定した場合、生成されるカラー画像は、図10(b)のカラー画像Pc2のように、色Aと色Bとの境界はにじんだ色となるが、その境界は指定された点に移動する。   Here, an example in which the boundary is indicated by a straight line is shown. This boundary may be designated by a point. For example, when the boundary is designated by a point in FIGS. 10C and 10D, the color image generated is as shown by a color image Pc2 in FIG. 10B. The boundary between color A and color B is a blurred color, but the boundary moves to a designated point.

<変形例>
以上、本発明の実施形態について説明したが、本発明はこの実施形態に限定されるものではない。
(変形例1)
ここでは、図6に示すように、カラー情報推定モデルMを、モノクロ画像と色指定情報と境界情報との3つの入力でカラー情報(a,bチャンネル)を推定するモデルとした。
しかし、本発明において、色指定情報は必須ではない。
その場合、図2に示したカラー情報推定モデル生成装置1から、色指定学習データ生成手段11を省き、モデル学習手段13が、カラー情報推定モデルMをモノクロ画像と境界情報との2つの入力で学習すればよい。また、図8に示した画像カラー化装置2から、色指定指示手段21および色指定情報生成手段22を省き、カラー情報推定手段26が、モノクロ画像と境界情報との2つの入力でカラー情報(a,bチャンネル)を推定すればよい。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to this embodiment.
(Modification 1)
Here, as shown in FIG. 6, the color information estimation model M is a model for estimating color information (a, b channels) with three inputs of a monochrome image, color designation information, and boundary information.
However, color designation information is not essential in the present invention.
In that case, the color designation learning data generation means 11 is omitted from the color information estimation model generation device 1 shown in FIG. 2, and the model learning means 13 inputs the color information estimation model M into two, monochrome image and boundary information. You should learn. Further, the color designation instruction means 21 and the color designation information generation means 22 are omitted from the image colorization device 2 shown in FIG. 8, and the color information estimation means 26 receives color information (monochrome image and boundary information) by two inputs. a, b channels) may be estimated.

もちろん、カラー情報推定モデルMは、モノクロ画像、色指定情報、境界情報以外に、他の情報を追加してカラー情報を推定するモデルとしてもよい。例えば、カラー情報推定モデルMの入力として、モノクロ画像のエッジデータ、ジャンル(アニメ、ドラマ、ニュース等)等を用いてもよい。   Of course, the color information estimation model M may be a model that estimates color information by adding other information besides monochrome images, color designation information, and boundary information. For example, as input of the color information estimation model M, edge data of a monochrome image, a genre (animation, drama, news, etc.) or the like may be used.

モノクロ画像のエッジデータを入力とすることで、カラー情報推定モデルMは、モノクロ画像のエッジによって、色を精度よく区分することが可能なモデルになる。また、ジャンルを入力とすることで、カラー情報推定モデルMは、ジャンル固有の色合いを推定することが可能なモデルとなる。   By inputting edge data of a monochrome image, the color information estimation model M becomes a model capable of accurately classifying colors by the edge of the monochrome image. Further, by using the genre as an input, the color information estimation model M becomes a model capable of estimating the hue specific to the genre.

例えば、モノクロ画像のエッジデータをカラー情報推定モデルMの入力とする場合、図2に示したカラー情報推定モデル生成装置1において、エッジを検出するエッジ検出手段を備えればよい。そして、エッジ検出手段が、情報分離手段10で分離したモノクロ情報であるLチャンネルからエッジを検出し、エッジデータ(エッジ画像)を1チャンネルの情報として、モデル学習手段13に出力すればよい。
また、図8に示した画像カラー化装置2においても、エッジ検出手段を備えればよい。そして、エッジ検出手段が、画像入力手段20で入力したモノクロ画像を入力してエッジを検出し、エッジデータ(エッジ画像)を1チャンネルの情報として、カラー情報推定手段26に出力すればよい。
For example, when edge data of a monochrome image is used as the input of the color information estimation model M, the color information estimation model generation apparatus 1 shown in FIG. 2 may be provided with edge detection means for detecting an edge. Then, the edge detection means may detect an edge from the L channel which is monochrome information separated by the information separation means 10, and output edge data (edge image) to the model learning means 13 as information of one channel.
In addition, the image color conversion device 2 shown in FIG. 8 may be provided with edge detection means. Then, the edge detection means may input the monochrome image input by the image input means 20 to detect an edge, and output edge data (edge image) to the color information estimation means 26 as information of one channel.

また、例えば、モノクロ画像のジャンルをカラー情報推定モデルMの入力とする場合、カラー情報推定モデル生成装置1および画像カラー化装置2において、取り扱うジャンルの種類をNjとしたとき、Njチャンネル分のデータ(ジャンル情報)を生成するジャンル情報生成手段を備え、ジャンル情報を、モデル学習手段13、カラー情報推定手段26に出力することとすればよい。このジャンル情報は、ひとつのチャンネルにひとつのジャンルが対応するものとする。そして、ジャンル情報生成手段は、該当ジャンルに対応するチャンネルのみにジャンルが設定されていることを示す値(例えば、“1”)、それ以外のチャンネルにはジャンルが設定されていないことを示す値(例えば“0”)を設定することで、ジャンル情報を生成する。これによって、モノクロ画像に複数のジャンルが対応する場合でも、カラー情報推定モデルMの入力として使用することができる。   Also, for example, when the genre of monochrome image is input to the color information estimation model M, when the type of genre to be handled is Nj in the color information estimation model generation device 1 and the image colorization device 2, data for Nj channels A genre information generation means for generating (genre information) may be provided, and the genre information may be output to the model learning means 13 and the color information estimation means 26. In this genre information, one channel corresponds to one genre. And, the genre information generation means has a value (for example, “1”) indicating that the genre is set to only the channel corresponding to the corresponding genre, and a value indicating that the genre is not set to the other channels. By setting (for example, “0”), genre information is generated. By this, even when a plurality of genres correspond to a monochrome image, it can be used as an input of the color information estimation model M.

(変形例2)
また、ここでは、図6に示すように、カラー情報推定モデルMを、モノクロ画像(1チャンネル)、色指定情報(3チャンネル)、境界情報(1チャンネル)の3つの入力をそれぞれ個別に畳み込んだ後、加算(または連結)するモデルとした。
しかし、カラー情報推定モデルMは、これら3つの入力を連結し、5チャンネルのデータに対して畳み込みを行ってもよい。もちろん、3つの入力をすべて連結する必要はなく、その中の任意の2つを連結し、畳み込んだ後、それぞれを加算(または連結)することとしてもよい。例えば、モノクロ画像の1チャンネルと、色指定情報および境界情報を連結した4チャンネルとに分けて畳み込みを行う等である。
(Modification 2)
Further, here, as shown in FIG. 6, the color information estimation model M is individually convoluted into three inputs of a monochrome image (1 channel), color designation information (3 channels), and boundary information (1 channel). After that, the model was added (or connected).
However, the color information estimation model M may connect these three inputs and perform convolution on data of 5 channels. Of course, it is not necessary to connect all three inputs, and arbitrary two of them may be connected, folded, and then each added (or connected). For example, convolution is performed by dividing into one channel of a monochrome image and four channels in which color designation information and boundary information are connected.

(変形例3)
また、ここでは、カラー画像をLab色空間の画像とした。しかし、カラー画像は、Lab色空間の画像に限定するものではなく、他の色空間(例えば、RGB色空間)の画像であっても構わない。
(Modification 3)
Also, in this case, the color image is an image of the Lab color space. However, the color image is not limited to an image in the Lab color space, and may be an image in another color space (for example, an RGB color space).

例えば、図2に示したカラー情報推定モデル生成装置1において、RGB色空間のカラー画像を学習データとして、カラー情報推定モデルMを生成する場合、情報分離手段10の前段に、色空間変換手段を備えればよい。そして、色空間変換手段が、RGB色空間のカラー画像をLab色空間のカラー画像に変換し、情報分離手段10に出力すればよい。
また、図8に示した画像カラー化装置2において、カラー情報合成手段27の後段に、Lab色空間のカラー画像をRGB色空間のカラー画像に変換する色空間変換手段を備えればよい。
For example, when color information estimation model M is generated using color images in the RGB color space as learning data in color information estimation model generation apparatus 1 shown in FIG. It should be provided. Then, the color space conversion unit may convert a color image in the RGB color space into a color image in the Lab color space, and output the color image to the information separation unit 10.
Further, in the image colorization apparatus 2 shown in FIG. 8, the color information conversion means may be provided downstream of the color information combining means 27 for converting a color image in the Lab color space into a color image in the RGB color space.

1 カラー情報推定モデル生成装置
10 情報分離手段
11 色指定学習データ生成手段
110 指示情報付加手段
111 ランダム色指定設定手段
12 境界学習データ生成手段
120 境界検出手段
121 ランダム境界選択手段
13 モデル学習手段
14 モデル記憶手段
2 画像カラー化装置
20 画像入力手段
21 色指定指示手段
22 色指定情報生成手段
23 境界指示手段
24 境界情報生成手段
25 モデル記憶手段
26 カラー情報推定手段
27 カラー情報合成手段
DESCRIPTION OF SYMBOLS 1 color information estimation model generation apparatus 10 information separation means 11 color designation learning data generation means 110 instruction information addition means 111 random color specification setting means 12 boundary learning data generation means 120 boundary detection means 121 random boundary selection means 13 model learning means 14 model Storage means 2 image colorization device 20 image input means 21 color designation instruction means 22 color designation information generation means 23 boundary designation means 24 boundary information generation means 25 model storage means 26 color information estimation means 27 color information synthesis means

Claims (7)

モノクロ画像からカラー情報を推定するためのカラー情報推定モデルを生成するカラー情報推定モデル生成装置であって、
学習データであるカラー画像を明度成分であるモノクロ情報と明度成分以外の色成分であるカラー情報とに分離する情報分離手段と、
前記情報分離手段で分離したカラー情報において、色の変化が予め定めた閾値よりも大きい境界から画素をランダムに選択し、その位置を示す境界情報を生成する境界学習データ生成手段と、
前記モノクロ情報と前記境界情報とを入力し、前記情報分離手段で分離したカラー情報を正解データとしてニューラルネットワークを学習することで前記カラー情報推定モデルを生成するモデル学習手段と、
を備えることを特徴とするカラー情報推定モデル生成装置。
A color information estimation model generation apparatus for generating a color information estimation model for estimating color information from a monochrome image, comprising:
Information separation means for separating a color image which is learning data into monochrome information which is a lightness component and color information which is a color component other than the lightness component;
Boundary learning data generation means for randomly selecting pixels from the boundaries where color change is larger than a predetermined threshold in color information separated by the information separation means, and generating boundary information indicating the position;
Model learning means for generating the color information estimation model by inputting the monochrome information and the boundary information and learning a neural network using the color information separated by the information separation means as correct data;
An apparatus for generating a color information estimation model, comprising:
前記情報分離手段は、前記カラー画像のモノクロ情報を色空間の明度成分として分離し、前記カラー画像のカラー情報を前記色空間の第1色成分および第2色成分として分離するものであって、
前記境界学習データ生成手段は、
前記第1色成分および前記第2色成分のそれぞれで色の境界を検出する境界手段と、
前記第1色成分および前記第2色成分の少なくとも一方で境界として検出された画素位置からランダムに選択した画素位置に、境界であることを示す情報を設定することで前記境界情報を生成するランダム境界選択手段と、
を備えることを特徴とする請求項1に記載のカラー情報推定モデル生成装置。
The information separation unit separates monochrome information of the color image as a lightness component of a color space, and separates color information of the color image as a first color component and a second color component of the color space.
The boundary learning data generation means
Boundary means for detecting color boundaries in each of the first color component and the second color component;
The boundary information is generated randomly by setting information indicating a boundary at a pixel position randomly selected from a pixel position detected as a boundary at least one of the first color component and the second color component. Boundary selection means,
The color information estimation model generation apparatus according to claim 1, comprising:
前記情報分離手段で分離したカラー情報において、画素ごとに色指定の指示の有無を示す情報をランダムに設定した指示情報を前記カラー情報に付加し、前記色指定の指示がない前記指示情報の画素に対応する前記カラー情報の画素に、予め定めた固定値を設定した色指定情報を生成する色指定学習データ生成手段を、さらに備え、
前記モデル学習手段は、前記モノクロ情報と前記境界情報と前記色指定情報とを入力し、前記ニューラルネットワークを学習することを特徴とする請求項1または請求項2に記載のカラー情報推定モデル生成装置。
In the color information separated by the information separating means, the instruction information in which the information indicating the presence or absence of the instruction for specifying the color is randomly set for each pixel is added to the color information, and the pixel of the instruction information without the instruction for the color specification And color specification learning data generation means for generating color specification information in which a predetermined fixed value is set to the pixel of the color information corresponding to
The color information estimation model generating apparatus according to claim 1 or 2, wherein the model learning means learns the neural network by inputting the monochrome information, the boundary information, and the color designation information. .
請求項1または請求項2に記載のカラー情報推定モデル生成装置で生成されたカラー情報推定モデルを用いて、モノクロ画像からカラー情報を推定し、カラー画像を生成する画像カラー化装置であって、
前記モノクロ画像における境界の位置を境界指示として入力する境界指示手段と、
前記モノクロ画像の画素位置に対応して、前記境界指示で指示された画素位置に境界であることを示す情報を設定した境界情報を生成する境界情報生成手段と、
前記カラー情報推定モデルを用いて、モノクロ情報である前記モノクロ画像と前記境界情報とからカラー情報を推定するカラー情報推定手段と、
前記カラー情報推定手段で推定されたカラー情報と前記モノクロ画像とを合成することで、前記カラー画像を生成するカラー画像合成手段と、
を備えることを特徴とする画像カラー化装置。
An image colorization apparatus for estimating color information from a monochrome image using the color information estimation model generated by the color information estimation model generation apparatus according to claim 1 or 2, and generating a color image,
Boundary designation means for inputting the position of the boundary in the monochrome image as the boundary designation;
Boundary information generation means for generating boundary information in which information indicating a boundary is set at the pixel position instructed by the boundary instruction corresponding to the pixel position of the monochrome image;
Color information estimation means for estimating color information from the monochrome image as monochrome information and the boundary information using the color information estimation model;
Color image combining means for generating the color image by combining the color information estimated by the color information estimation means with the monochrome image;
An image colorization apparatus comprising:
請求項3に記載のカラー情報推定モデル生成装置で生成されたカラー情報推定モデルを用いて、モノクロ画像からカラー情報を推定し、カラー画像を生成する画像カラー化装置であって、
前記モノクロ画像における境界の位置を境界指示として入力する境界指示手段と、
前記モノクロ画像の画素位置に対応して、前記境界指示で指示された画素位置に境界であることを示す情報を設定した境界情報を生成する境界情報生成手段と、
前記モノクロ画像における色指定を行う位置および色を色指定指示として入力する色指定指示入力手段と、
前記モノクロ画像の画素位置に対応して、前記色指定指示の有無を示す指示情報と、色指定された色をカラー情報とを設定した色指定情報を生成する色指定情報生成手段と、
前記カラー情報推定モデルを用いて、モノクロ情報である前記モノクロ画像と前記境界情報と前記色指定情報とからカラー情報を推定するカラー情報推定手段と、
前記カラー情報推定手段で推定されたカラー情報と前記モノクロ画像とを合成することで、前記カラー画像を生成するカラー画像合成手段と、
を備えることを特徴とする画像カラー化装置。
An image colorization apparatus for estimating color information from a monochrome image using the color information estimation model generated by the color information estimation model generation apparatus according to claim 3 to generate a color image,
Boundary designation means for inputting the position of the boundary in the monochrome image as the boundary designation;
Boundary information generation means for generating boundary information in which information indicating a boundary is set at the pixel position instructed by the boundary instruction corresponding to the pixel position of the monochrome image;
A color designation instruction input unit that inputs, as a color designation instruction, a position and a color for performing color designation in the monochrome image;
Color designation information generation means for generating color designation information in which instruction information indicating presence / absence of the color designation instruction is set corresponding to a pixel position of the monochrome image, and color information for which a color designated color is set;
Color information estimation means for estimating color information from the monochrome image which is monochrome information, the boundary information, and the color designation information using the color information estimation model;
Color image combining means for generating the color image by combining the color information estimated by the color information estimation means with the monochrome image;
An image colorization apparatus comprising:
コンピュータを、請求項1から請求項3のいずれか一項に記載のカラー情報推定モデル生成装置として機能させるためのカラー情報推定モデル生成プログラム。   A color information estimation model generation program for causing a computer to function as the color information estimation model generation apparatus according to any one of claims 1 to 3. コンピュータを、請求項4または請求項5に記載の画像カラー化装置として機能させるための画像カラー化プログラム。   An image colorization program for causing a computer to function as the image colorization device according to claim 4 or 5.
JP2017251872A 2017-12-27 2017-12-27 Color information estimation model generator, image colorizer and their programs Active JP6986438B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017251872A JP6986438B2 (en) 2017-12-27 2017-12-27 Color information estimation model generator, image colorizer and their programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017251872A JP6986438B2 (en) 2017-12-27 2017-12-27 Color information estimation model generator, image colorizer and their programs

Publications (2)

Publication Number Publication Date
JP2019117558A true JP2019117558A (en) 2019-07-18
JP6986438B2 JP6986438B2 (en) 2021-12-22

Family

ID=67304498

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017251872A Active JP6986438B2 (en) 2017-12-27 2017-12-27 Color information estimation model generator, image colorizer and their programs

Country Status (1)

Country Link
JP (1) JP6986438B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021161454A1 (en) * 2020-02-13 2021-08-19
WO2021162263A1 (en) * 2020-02-10 2021-08-19 삼성전자 주식회사 Method for generating image and electronic device therefor
JPWO2021161453A1 (en) * 2020-02-13 2021-08-19
KR20210109719A (en) * 2020-02-27 2021-09-07 에스케이텔레콤 주식회사 Method and Apparatus for Video Colorization
JP2022547769A (en) * 2019-09-11 2022-11-16 グーグル エルエルシー Image colorization using machine learning

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334814A (en) * 2003-05-07 2004-11-25 Susumu Shiroyama Technique, device, and program of colorization of monochromatic image
US20080170248A1 (en) * 2007-01-17 2008-07-17 Samsung Electronics Co., Ltd. Apparatus and method of compensating chromatic aberration of image
JP2011172261A (en) * 2007-05-24 2011-09-01 Fuji Xerox Co Ltd Image processing apparatus and image processing program
JP2014106565A (en) * 2012-11-22 2014-06-09 Nippon Telegr & Teleph Corp <Ntt> Object area boundary estimation device and program
CN107330956A (en) * 2017-07-03 2017-11-07 广东工业大学 A kind of unsupervised painting methods of caricature manual draw and device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334814A (en) * 2003-05-07 2004-11-25 Susumu Shiroyama Technique, device, and program of colorization of monochromatic image
US20080170248A1 (en) * 2007-01-17 2008-07-17 Samsung Electronics Co., Ltd. Apparatus and method of compensating chromatic aberration of image
JP2011172261A (en) * 2007-05-24 2011-09-01 Fuji Xerox Co Ltd Image processing apparatus and image processing program
JP2014106565A (en) * 2012-11-22 2014-06-09 Nippon Telegr & Teleph Corp <Ntt> Object area boundary estimation device and program
CN107330956A (en) * 2017-07-03 2017-11-07 广东工业大学 A kind of unsupervised painting methods of caricature manual draw and device

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
L. VINCENT ET AL.: ""Watersheds in Digital Spaces: An Efficient Algorithm Based on Immersion Simulations"", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 13, no. 6, JPN6021043024, 30 June 1991 (1991-06-30), US, pages 583 - 598, XP000949356, ISSN: 0004629460, DOI: 10.1109/34.87344 *
N. ANAGNOSTOPOULOS ET AL.: ""Two-Staged Image Colorization Based on Salient Contours"", 2014 IEEE INTERNATIONAL CONFERENCE ON IMAGING SYSTEMS AND TECHNIQUES (IST) PROCEEDINGS, JPN6021043025, 14 October 2014 (2014-10-14), US, pages 1 - 5, ISSN: 0004629459 *
品川 淳、長尾 智晴: ""エッジ画像を用いた領域成長法によるモノクロ画像のカラー化"", 電子情報通信学会2013年総合大会講演論文集 情報・システム2, JPN6021043026, 5 March 2013 (2013-03-05), JP, pages 35, ISSN: 0004629458 *
石川 博: ""人工知能で白黒写真をカラーに"", 画像ラボ, vol. 28, no. 10, JPN6021043027, 10 October 2017 (2017-10-10), JP, pages 14 - 21, ISSN: 0004629457 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022547769A (en) * 2019-09-11 2022-11-16 グーグル エルエルシー Image colorization using machine learning
JP7490004B2 (en) 2019-09-11 2024-05-24 グーグル エルエルシー Image Colorization Using Machine Learning
WO2021162263A1 (en) * 2020-02-10 2021-08-19 삼성전자 주식회사 Method for generating image and electronic device therefor
JPWO2021161454A1 (en) * 2020-02-13 2021-08-19
WO2021161454A1 (en) * 2020-02-13 2021-08-19 日本電気株式会社 Image processing system, image processing method, and non-transitory computer-readable medium
JPWO2021161453A1 (en) * 2020-02-13 2021-08-19
WO2021161453A1 (en) * 2020-02-13 2021-08-19 日本電気株式会社 Image processing system, image processing method, and nontemporary computer-readable medium
JP7351358B2 (en) 2020-02-13 2023-09-27 日本電気株式会社 Image processing system, image processing method, and image processing program
JP7444179B2 (en) 2020-02-13 2024-03-06 日本電気株式会社 Image processing system, image processing method, and image processing program
KR20210109719A (en) * 2020-02-27 2021-09-07 에스케이텔레콤 주식회사 Method and Apparatus for Video Colorization
KR102342526B1 (en) 2020-02-27 2021-12-23 에스케이텔레콤 주식회사 Method and Apparatus for Video Colorization

Also Published As

Publication number Publication date
JP6986438B2 (en) 2021-12-22

Similar Documents

Publication Publication Date Title
JP6986438B2 (en) Color information estimation model generator, image colorizer and their programs
US9639945B2 (en) Depth-based application of image effects
CN104364825B (en) Augmented reality aids in the vision accommodation of video conference
WO2018032783A1 (en) Image processing method and apparatus
CN111223106B (en) Full-automatic portrait mask matting method and system
CN111754517A (en) Interactive image matting using neural networks
JP2019525515A (en) Multiview scene segmentation and propagation
US9865032B2 (en) Focal length warping
US20110206282A1 (en) Device, Method, and Program for Image Processing
CN107316286B (en) Method and device for synchronously synthesizing and removing rain and fog in image
JP6408314B2 (en) Color video processing system and method, and corresponding computer program
US9185270B2 (en) Ghost artifact detection and removal in HDR image creation using graph based selection of local reference
CN112991371B (en) Automatic image coloring method and system based on coloring overflow constraint
US9692987B2 (en) Method for applying multi-layered film grain and texture mapping to a digital video image
CN115082328A (en) Method and apparatus for image correction
JP7463186B2 (en) Information processing device, information processing method, and program
CN113301409A (en) Video synthesis method and device, electronic equipment and readable storage medium
CN108171776B (en) Method for realizing image editing propagation based on improved convolutional neural network
JP2007506321A (en) Method and system for modifying a digital image differentially quasi-regularly from pixel to pixel
JP5973804B2 (en) Image processing apparatus and control method thereof
US9786055B1 (en) Method and apparatus for real-time matting using local color estimation and propagation
JP2019117559A (en) Color information estimation model generating device, moving image colorization device, and programs for the same
TWI267801B (en) Automatically detecting and replacing method of new and old background in an object
JP2019029938A (en) Error calculator and its program
CN113240573B (en) High-resolution image style transformation method and system for local and global parallel learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201026

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211102

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211129

R150 Certificate of patent or registration of utility model

Ref document number: 6986438

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150