JP2019117558A - Color information estimation model generating device, image colorization device and programs for the same - Google Patents
Color information estimation model generating device, image colorization device and programs for the same Download PDFInfo
- Publication number
- JP2019117558A JP2019117558A JP2017251872A JP2017251872A JP2019117558A JP 2019117558 A JP2019117558 A JP 2019117558A JP 2017251872 A JP2017251872 A JP 2017251872A JP 2017251872 A JP2017251872 A JP 2017251872A JP 2019117558 A JP2019117558 A JP 2019117558A
- Authority
- JP
- Japan
- Prior art keywords
- color
- information
- boundary
- image
- estimation model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、モノクロ画像をカラー化するためのカラー情報推定モデル生成装置、画像カラー化装置およびそれらのプログラムに関する。 The present invention relates to a color information estimation model generation device for coloring monochrome images, an image colorization device, and programs therefor.
近年、いわゆる機械学習技術を用いることにより、モノクロ画像(白黒画像)におけるカラー情報を推定する方法が提案されている(非特許文献1、非特許文献2参照)。このような機械学習技術を用いたカラー情報の推定方法は、多様な物体が写った膨大な量のカラー画像を用意することを前提としている。
In recent years, methods have been proposed for estimating color information in a monochrome image (black and white image) by using a so-called machine learning technology (see Non-Patent
このカラー情報の推定方法は、カラー情報を推定するための推定モデルを学習する際に、例えば、ニューラルネットワーク等で構成されたモデルに、膨大なカラー画像を入力する。そして、この推定方法は、モノクロ画像とこのモノクロ画像に対応するカラー情報との対応関係を機械学習技術により推定モデルのパラメータとして学習する。そして、この推定方法は、学習した推定モデルを用いて、モノクロ画像とカラー情報との対応関係から、入力として与えられるモノクロ画像に対して、カラー情報を推定し、カラー画像を生成する。 In this color information estimation method, when learning an estimation model for estimating color information, for example, an enormous number of color images are input to a model configured by a neural network or the like. Then, in this estimation method, the correspondence between the monochrome image and the color information corresponding to the monochrome image is learned as a parameter of an estimation model by machine learning technology. Then, this estimation method estimates color information with respect to the monochrome image given as input from the correspondence between the monochrome image and the color information using the learned estimation model, and generates a color image.
しかし、このようなモノクロ画像だけを入力とするカラー情報の推定方法は、学習データに含まれる物体の平均的な色を出力するように推定モデルを学習する。そのため、この推定方法は、洋服のような色のバリエーションが多い物体に対して、同じような色を推定することになり、自然な色のカラー画像を生成することができない。 However, such a color information estimation method using only monochrome images as input learns an estimation model so as to output an average color of an object included in learning data. Therefore, this estimation method estimates similar colors for objects with many color variations such as clothes, and can not generate a color image of natural colors.
そこで、従来、カラー情報の推定モデルへの入力として、モノクロ画像だけではなく、ユーザによる色指定情報を用いる方法が提案されている(非特許文献3参照)。この方法は、モノクロ画像上の物体に対してユーザが着色して欲しい色を指示する情報を推定モデルに与えることで、その物体を指定された色で着色するように学習し、モノクロ画像からカラー画像を生成する。
この方法によって、洋服のような色のバリエーションが多い物体でも、ユーザ所望の色付けが可能となる。また、この方法によって、史実等で予め正解の色が分かっている場合に、モノクロ画像からより正確なカラー画像を生成することができる。
Therefore, conventionally, there has been proposed a method using not only monochrome images but also color designation information by the user as input to the estimation model of color information (see Non-Patent Document 3). This method learns that the object is colored with the specified color by giving the information indicating the color desired to be colored by the user for the object on the monochrome image, and the monochrome image is colored. Generate an image.
By this method, even for an object with many color variations, such as clothes, it is possible to perform coloring desired by the user. Further, this method can generate a more accurate color image from a monochrome image when the correct color is known in advance by historical fact or the like.
前記したユーザの指示による色指定情報を用いてモノクロ画像をカラー化する方法は、ユーザが指定した色を画像のどの領域まで着色するのかを直接コントロールすることができない。そのため、この方法は、ユーザの意図とは異なる領域を指定した色で着色してしまうことがあるという問題がある。
例えば、モノクロ画像上のある洋服を赤色で着色する指示を与えても、洋服に隣接して写っている樹木を赤色に着色してしまうことがある。この場合も、樹木に対して正しい色(例えば、茶色)を指定することは可能であるが、画像全体に着色を指示することが必要になり、多くの手間を要する。
The method of coloring a monochrome image using color designation information according to the user's instruction described above can not directly control to which region of the image the color designated by the user is to be colored. Therefore, this method has a problem that an area different from the user's intention may be colored with a designated color.
For example, even if an instruction to color a certain clothes on a monochrome image in red is given, the trees appearing adjacent to the clothes may be colored in red. Also in this case, although it is possible to specify the correct color (for example, brown) for the tree, it is necessary to specify coloring for the entire image, which requires much time and effort.
また、従来の方法は、たとえ画像上の多くの物体に色を指定したとしても、物体の境界付近で正しく色付けすることができない場合があるという問題がある。特に、モノクロ画像上でほぼ同じ色の領域となる輝度値の変化が少ない領域では、領域ごとに異なる色を着色することは困難である。 Also, the conventional method has a problem that even if colors are specified for many objects on the image, it may not be possible to color correctly around the boundaries of the objects. In particular, it is difficult to color different colors for each area in an area where the change in luminance value is small, which is an area of substantially the same color on a monochrome image.
本発明は、以上のような問題点に鑑みてなされたものであり、モノクロ画像をカラー化する際に、画像上の領域の境界で色を分けることが可能なカラー情報推定モデル生成装置、画像カラー化装置およびそれらのプログラムを提供することを課題とする。 The present invention has been made in view of the above problems, and is a color information estimation model generating apparatus capable of separating colors at the boundary of an area on an image when coloring a monochrome image. An object of the present invention is to provide a coloring apparatus and a program for the same.
前記課題を解決するため、本発明に係るカラー情報推定モデル生成装置は、モノクロ画像からカラー情報を推定するためのカラー情報推定モデルを生成するカラー情報推定モデル生成装置であって、情報分離手段と、境界学習データ生成手段と、モデル学習手段と、を備える構成とした。 In order to solve the above problem, a color information estimation model generation apparatus according to the present invention is a color information estimation model generation apparatus for generating a color information estimation model for estimating color information from a monochrome image, which comprises: , Boundary learning data generation means, and model learning means.
かかる構成において、カラー情報推定モデル生成装置は、情報分離手段によって、学習データであるカラー画像を明度成分であるモノクロ情報と明度成分以外の色成分であるカラー情報とに分離する。カラー画像から分離されたモノクロ情報は、カラー情報推定モデルを学習するためのモノクロ画像の学習データとなる。
そして、カラー情報推定モデル生成装置は、境界学習データ生成手段によって、情報分離手段で分離したカラー情報において、色の変化が予め定めた閾値よりも大きい境界から画素をランダムに選択し、その位置を示す境界情報を生成する。この境界情報は、モノクロ画像上で、境界となる位置をユーザが指示する学習データとなる。また、境界となる画素をランダムに選択するのは、境界の一部をユーザが指示することをカラー情報推定モデルに学習させるためである。
In such a configuration, the color information estimation model generation device separates the color image as learning data into monochrome information as lightness component and color information as color components other than the lightness component by the information separating means. The monochrome information separated from the color image becomes learning data of a monochrome image for learning a color information estimation model.
Then, the color information estimation model generation apparatus randomly selects a pixel from the boundary where the change in color is larger than a predetermined threshold in the color information separated by the information separation unit by the boundary learning data generation unit, and the position thereof Generate boundary information to indicate. This boundary information is learning data for the user to indicate the position to be the boundary on the monochrome image. In addition, the reason for randomly selecting the pixel to be the boundary is to make the color information estimation model learn that the user designates a part of the boundary.
そして、カラー情報推定モデル生成装置は、モデル学習手段によって、モノクロ情報と境界情報とを入力し、情報分離手段で分離したカラー情報を正解データとしてニューラルネットワークを学習することで、ニューラルネットワークで構成されたカラー情報推定モデルを生成する。
これによって、カラー情報推定モデル生成装置は、モノクロ情報と境界情報とからカラー情報を推定することが可能なカラー情報推定モデルを生成する。
The color information estimation model generation apparatus is configured by a neural network by inputting monochrome information and boundary information by the model learning means, and learning a neural network using the color information separated by the information separation means as correct data. Generate a color information estimation model.
Thus, the color information estimation model generation device generates a color information estimation model capable of estimating color information from monochrome information and boundary information.
また、前記課題を解決するため、本発明に係る画像カラー化装置は、カラー情報推定モデル生成装置で生成されたカラー情報推定モデルを用いて、モノクロ画像からカラー情報を推定し、カラー画像を生成する画像カラー化装置であって、境界指示手段と、境界情報生成手段と、カラー情報推定手段と、カラー画像合成手段と、を備える構成とした。 Further, in order to solve the above problem, the image coloring apparatus according to the present invention estimates color information from a monochrome image using a color information estimation model generated by the color information estimation model generating apparatus to generate a color image. The image colorization apparatus includes: a boundary instruction unit; a boundary information generation unit; a color information estimation unit; and a color image synthesis unit.
かかる構成において、画像カラー化装置は、境界指示手段によって、カラー化対象のモノクロ画像における境界の位置を境界指示として入力する。これによって、ユーザは、モノクロ画像上の輝度がほぼ同じ領域であっても、明示的に境界を指示することができる。
そして、画像カラー化装置は、境界情報生成手段によって、モノクロ画像の画素位置に対応して、境界指示で指示された画素位置に境界であることを示す情報を設定した境界情報を生成する。
In such a configuration, the image colorization apparatus inputs the position of the boundary in the monochrome image to be colored as the boundary instruction by the boundary instruction means. This allows the user to explicitly indicate the boundary even if the luminance on the monochrome image is substantially the same.
Then, the image colorization apparatus generates boundary information in which the information indicating the boundary is set at the pixel position designated by the boundary instruction, corresponding to the pixel position of the monochrome image, by the boundary information generation means.
そして、画像カラー化装置は、カラー情報推定手段によって、カラー情報推定モデルを用いて、モノクロ情報であるモノクロ画像と境界情報とからカラー情報を推定する。
そして、画像カラー化装置は、カラー画像合成手段によって、カラー情報推定手段で推定されたカラー情報と入力されたモノクロ画像とを合成することで、カラー画像を生成する。
Then, the image colorization apparatus estimates color information from the monochrome image, which is monochrome information, and the boundary information using the color information estimation model by the color information estimation means.
Then, the image colorization apparatus generates a color image by combining the color information estimated by the color information estimation means with the input monochrome image by the color image combining means.
また、本発明は、コンピュータを、前記カラー情報推定モデル生成装置として機能させるためのカラー情報推定モデル生成プログラムで実現することもできる。
また、本発明は、コンピュータを、前記画像カラー化装置として機能させるための画像カラー化プログラムで実現することもできる。
The present invention can also be realized by a color information estimation model generation program for causing a computer to function as the color information estimation model generation device.
The present invention can also be realized by an image colorization program for causing a computer to function as the image colorization device.
本発明は、以下に示す優れた効果を奏するものである。
本発明に係るカラー情報推定モデル生成装置によれば、カラー画像に対する色の境界を学習し、境界によって異なる色となる状態を学習したカラー情報推定モデルを生成することができる。
また、本発明に係る画像カラー化装置によれば、ユーザがモノクロ画像上で色の境を明示的に与える簡易な操作で、モノクロ画像から、より正確なカラー画像を生成することができる。
The present invention exhibits the following excellent effects.
According to the color information estimation model generation apparatus of the present invention, it is possible to learn a color boundary with respect to a color image, and to generate a color information estimation model in which a different color is learned according to the boundary.
Further, according to the image colorization apparatus according to the present invention, it is possible to generate a more accurate color image from a monochrome image by a simple operation in which the user explicitly gives color boundaries on the monochrome image.
以下、本発明の実施形態について図面を参照して説明する。
<本発明の概要>
まず、図1を参照して、本発明の概要について説明する。図1は、本発明の概要を説明するための概要図である。
図1に示すように、本発明に係るカラー情報推定モデル生成装置1は、カラー情報推定モデルMを生成するものである。また、本発明に係る画像カラー化装置2は、カラー情報推定モデル生成装置1が生成したカラー情報推定モデルMを用いて、モノクロ画像Pmのカラー情報を推定し、カラー画像Pcを生成するものである。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
<Overview of the Invention>
First, the outline of the present invention will be described with reference to FIG. FIG. 1 is a schematic diagram for explaining an overview of the present invention.
As shown in FIG. 1, the color information estimation
カラー情報推定モデルMは、モノクロ画像Pmと、ユーザからの指示である色指定指示Icおよび境界指示Ibを示す情報とを入力し、モノクロ画像Pmのカラー情報を出力するニューラルネットワークである。 The color information estimation model M is a neural network that inputs a monochrome image Pm and information indicating a color designation instruction Ic and a boundary instruction Ib that are instructions from the user, and outputs color information of the monochrome image Pm.
モノクロ画像Pmは、白黒写真、フィルム等からスキャンした明度成分の情報を持つデジタル画像である。
色指定指示Icは、画像上のある位置における色の指定を行う指示である。例えば、色指定指示Icは、モノクロ画像Pmに対して、ある物体の正解の色が予め分かっている場合、その物体の位置とその色を指定するものである。
境界指示Ibは、色の境を示す位置の指定を行う指示である。例えば、境界指示Ibは、人物と背景との境界、重なりあった物体の境界等を指定するものである。
このカラー情報推定モデルMは、色指定指示Icで指定された位置を含んだ領域に対して指定された色を付けるように学習し、さらに、境界指示Ibで指定された境界で色を分けるように学習したものである。
The monochrome image Pm is a digital image having information of lightness components scanned from a black and white photograph, a film or the like.
The color specification instruction Ic is an instruction to specify a color at a certain position on the image. For example, when the color of the correct answer of a certain object is known in advance for the monochrome image Pm, the color specification instruction Ic specifies the position of the object and the color.
The boundary instruction Ib is an instruction for specifying a position indicating a color boundary. For example, the boundary designation Ib designates the boundary between a person and the background, the boundary between overlapping objects, and the like.
The color information estimation model M learns to apply the designated color to the area including the position designated by the color designation instruction Ic, and further, the color is separated at the boundary designated by the boundary designation Ib. Was learned to
画像カラー化装置2は、カラー情報推定モデルMによって、色指定指示Icで指示された位置を含んだ領域に対して、指定された色で着色するようにカラー情報を推定する。カラー情報は、カラー画像から色空間の明度成分を除いた色成分(第1色成分、第2色成分)の情報である。
また、画像カラー化装置2は、カラー情報推定モデルMによって、境界指示Ibで指示された境界で、色が区分されるようにカラー情報を推定する。
これによって、本発明は、モノクロ画像Pmに対するカラー情報を推定することで、より正確な色のカラー画像Pcを生成することができる。
以下、本発明に係るカラー情報推定モデル生成装置1および画像カラー化装置2について、より詳細に説明する。
The
Further, the
Thus, the present invention can generate a more accurate color image Pc by estimating color information for the monochrome image Pm.
Hereinafter, the color information estimation
<カラー情報推定モデル生成装置:構成>
まず、図2を参照して、カラー情報推定モデル生成装置1の構成について説明する。図2は、カラー情報推定モデル生成装置1の構成を示すブロック図である。
図2に示すように、カラー情報推定モデル生成装置1は、情報分離手段10と、色指定学習データ生成手段11と、境界学習データ生成手段12と、モデル学習手段13と、モデル記憶手段14と、を備える。
<Color Information Estimation Model Generation Device: Configuration>
First, the configuration of the color information estimation
As shown in FIG. 2, the color information estimation
カラー情報推定モデル生成装置1は、複数のカラー画像Poから、カラー情報推定モデルMを生成するものである。
カラー画像Poは、カラー情報推定モデルMを学習するための学習用データであって、予め大量(例えば、200万枚以上)に準備したカラー画像である。
このカラー画像Poは、カラー化の対象となるモノクロ画像Pm(図1参照)と同じ画像サイズ(垂直H画素×水平W画素)で、予め定めた色空間で表された画像である。ここでは、カラー画像Poは、Lab色空間で表された画像であるとする。
The color information estimation
The color image Po is learning data for learning the color information estimation model M, and is a color image prepared in advance in a large amount (for example, 2,000,000 sheets or more).
The color image Po is an image represented in a predetermined color space with the same image size (vertical H pixels × horizontal W pixels) as the monochrome image Pm (see FIG. 1) to be colored. Here, it is assumed that the color image Po is an image represented in Lab color space.
情報分離手段10は、入力したカラー画像Poを、モノクロ情報とカラー情報とに分離するものである。
具体的には、情報分離手段10は、Lab色空間の3チャンネルで構成されたカラー画像Poを、モノクロ情報であるLチャンネル(明度成分)と、カラー情報(明度成分以外の色成分)であるa,bチャンネル(第1色成分,第2色成分)とに分離する。
情報分離手段10は、分離したモノクロ情報(Lチャンネル)を、モデル学習手段13に出力する。
また、情報分離手段10は、分離したカラー情報(a,bチャンネル)を、色指定学習データ生成手段11、境界学習データ生成手段12およびモデル学習手段13に出力する。
The information separating means 10 separates the input color image Po into monochrome information and color information.
Specifically, the
The
Further, the
色指定学習データ生成手段11は、ユーザがモノクロ画像上の位置とその位置に対応する色とを指示する色指定指示Ic(図1参照)の学習データ(色指定学習データ)を生成するものである。色指定学習データ生成手段11は、指示情報付加手段110と、ランダム色指定設定手段111と、を備える。
The color specification learning data generation means 11 generates learning data (color specification learning data) of a color specification instruction Ic (see FIG. 1) which instructs the user to indicate the position on the monochrome image and the color corresponding to the position. is there. The color specification learning
指示情報付加手段110は、カラー情報(a,bチャンネル)のデータの各要素(画素)に対して、色指定の指示の有無を示す情報(指示情報)を付加するものである。
図3に示すように、カラー推定を行う画像のサイズをH(垂直画素数)×W(水平画素数)の大きさとしたとき、指示情報付加手段110は、カラー情報のチャンネルCh1,Ch2に、新たなチャンネルCh3を付加して、H×W×3の3チャンネルのデータ構造を持つ色指定情報DIcを生成する。
The instruction information adding means 110 adds information (instruction information) indicating the presence or absence of a color specification instruction to each element (pixel) of data of color information (channels a and b).
As shown in FIG. 3, when the size of the image to be subjected to color estimation is H (the number of vertical pixels) × W (the number of horizontal pixels), the instruction
チャンネルCh1およびチャンネルCh2は、情報分離手段10で分離されたカラー情報(Lab色空間のa,bチャンネル)である。チャンネルCh1はaの値、チャンネルCh2はbの値で構成される。
チャンネルCh3は、画素に対する色指定の指示の有無を示す情報(指示情報)である。例えば、チャンネルCh3の各要素には、対応する要素の位置(画素位置)に色指定の指示がある場合に“1”、色指定の指示がない場合に“0”が設定される。ここでは、指示情報付加手段110は、初期値として、チャンネルCh3(指示情報)のすべての要素に色指定の指示あり(例えば“1”)を設定する。
The channel Ch1 and the channel Ch2 are color information (a and b channels of Lab color space) separated by the
The channel Ch3 is information (instruction information) indicating the presence or absence of a color designation instruction for a pixel. For example, “1” is set to each element of the channel Ch3 when the color designation is instructed at the position (pixel position) of the corresponding element, and “0” is set when the color designation is not instructed. Here, the instruction
このように初期化された色指定情報DIcは、すべての画素位置に対して色指定を指示した色指定学習データ(完全色指定学習データ)となる。
指示情報付加手段110は、カラー情報(Ch1,Ch2)に指示情報(Ch3)を付加したデータ(色指定情報)を、ランダム色指定設定手段111に出力する。
The color designation information DIc thus initialized becomes color designation learning data (complete color designation learning data) in which color designation is designated for all pixel positions.
The instruction
ランダム色指定設定手段111は、指示情報付加手段110で生成された色指定情報において、ランダムに選択した画素位置に色指定を指示する情報を設定するものである。
具体的には、ランダム色指定設定手段111は、“0”から全画素数(垂直H画素×水平W画素)までの範囲でランダムに選択した値を、色指定を指示する画素数(色指定画素数)とする。なお、ランダム色指定設定手段111は、色指定画素数を、例えば、予め定めた確率の幾何分布に従う数として算出すればよい。
そして、ランダム色指定設定手段111は、画像上(H×W)で色指定画素数分の画素位置(色指定画素位置)をランダムに選択する。なお、ランダム色指定設定手段111は、色指定画素位置を、予め定めた平均、分散の二次元正規分布、あるいは、一様分布に従うものとして算出すればよい。
The random color
Specifically, the random color
Then, the random color
ここでは、初期値として、指示情報(Ch3;図3)のすべての要素(画素)に色指定の指示あり(例えば“1”)を設定しているため、ランダム色指定設定手段111は、色指定画素位置以外の画素位置に対応する指示情報(Ch3)の要素位置に“0”を設定する。また、ランダム色指定設定手段111は、色指定指示情報(Ch3)に“0”が設定された要素位置に対応するカラー情報(a,bチャンネル〔Ch1,Ch2〕)の画素位置のaの値およびbの値を予め定めた固定値(“0”)に設定する。
Here, since the color designation instruction (for example, “1”) is set to all elements (pixels) of the instruction information (Ch 3; FIG. 3) as the initial value, the random color
例えば、図4に示すように、ランダム色指定設定手段111は、チャンネルCh3の二次元データ上の(x,y)座標である座標(3,1),(1,3),(3,3),(2,4)をランダムに選択した色指定画素位置とし、他の座標に“0”を設定したとする。その場合、ランダム色指定設定手段111は、チャンネルCh3で“0”を設定した要素位置に対応するチャンネルCh1,Ch2の要素の値に“0”を設定する。
これによって、色指定学習データ生成手段11は、指示情報(Ch3)のランダムに設定された要素位置に“1”が設定されている画素だけに、有効なカラー情報(a,bチャンネル〔Ch1,Ch2〕)の値を持つ色指定学習データを生成することができる。
色指定学習データ生成手段11は、生成した色指定学習データをモデル学習手段13に出力する。
For example, as shown in FIG. 4, the random color specification setting means 111 sets coordinates (3, 1), (1, 3), (3, 3) which are (x, y) coordinates on the two-dimensional data of the channel Ch3. , (2, 4) are assumed to be color designation pixel positions randomly selected, and “0” is set to the other coordinates. In that case, the random color
As a result, the color designation learning
The color designation learning data generation means 11 outputs the generated color designation learning data to the model learning means 13.
境界学習データ生成手段12は、ユーザがモノクロ画像上の色の境を指示する境界指示Ib(図1参照)の学習データ(境界学習データ)を生成するものである。境界学習データ生成手段12は、境界検出手段120と、ランダム境界選択手段121と、を備える。
The boundary learning
境界検出手段120は、カラー情報(a,bチャンネル)から、画素ごとに当該画素が色の境界となる画素であるか否かを検出するものである。
境界検出手段120は、画像サイズをH(垂直画素数)×W(水平画素数)の大きさとしたとき、H×W×1の1チャンネル分の境界情報を生成する。この境界情報は、要素(画素)ごとに、境界として検出されたか否かを示す値(例えば、境界であれば“1”、境界でなければ“0”)で構成される。
The boundary detection means 120 detects, from the color information (channels a and b), whether or not the pixel is a pixel serving as a color boundary for each pixel.
When the image size is H (the number of vertical pixels) × W (the number of horizontal pixels), the
境界検出手段120は、aチャンネルおよびbチャンネルのそれぞれで色が大きく変化する境界の検出を行い、少なくとも一方のチャンネルで境界として検出された画素位置の要素に“1”、両方のチャンネルで境界として検出されなかった画素位置の要素に“0”を設定することで境界情報を生成する。
なお、境界検出手段120における境界の検出は、一般的なエッジ検出アルゴリズム(例えば、Cannyアルゴリズム)を用いて、周辺画素との値の差が予め定めた閾値よりも大きい画素を境界の画素として検出すればよい。
境界検出手段120は、境界の画素位置を示す境界情報をランダム境界選択手段121に出力する。
The boundary detection means 120 detects the boundary where color changes greatly in each of the a channel and the b channel, and at least one of the channels is an element of the pixel position detected as a boundary as “1” as a boundary in both channels. Boundary information is generated by setting “0” to the element of the pixel position not detected.
The boundary detection means 120 detects a boundary using a general edge detection algorithm (for example, the Canny algorithm) to detect a pixel whose difference in value with surrounding pixels is larger than a predetermined threshold value as a boundary pixel. do it.
The
ランダム境界選択手段121は、境界検出手段120で生成された境界情報において、境界として設定された要素をランダムに選択するものである。
具体的には、ランダム境界選択手段121は、“0”から境界として設定された画素数(境界画素数)までの範囲でランダムに選択した値を、境界として指示する画素数(境界指示画素数)とする。なお、ランダム境界選択手段121は、境界指示画素数を、例えば、予め定めた確率の幾何分布に従う数として算出すればよい。
そして、ランダム境界選択手段121は、境界情報において、境界として設定された画素から、ランダムに境界指示画素数分の画素を選択する。ランダム境界選択手段121は、選択した境界指示画素以外の画素位置に“0”を設定する。
The random
Specifically, the random
Then, the random
例えば、図5(a)に示すように、境界検出後に境界の画素位置に“1”が設定されている場合、ランダム境界選択手段121は、図5(b)に示すように、“1”が設定されて画素から、ランダムに選択した画素位置の“1”のみを残して他の画素位置に“0”を設定する。なお、図5中、点線はカラー画像上の境界を示す。
これによって、境界学習データ生成手段12は、カラー情報から検出した境界の一部の画素位置で境界を指示する境界学習データを生成することができる。
境界学習データ生成手段12は、生成した境界学習データをモデル学習手段13に出力する。
For example, as shown in FIG. 5 (a), when “1” is set in the pixel position of the boundary after the boundary detection, the random boundary selection means 121 is “1” as shown in FIG. 5 (b). Is set, and “0” is set to the other pixel position leaving only “1” of the pixel position randomly selected from the pixel. In FIG. 5, dotted lines indicate boundaries on the color image.
By this, the boundary learning
The boundary learning data generation means 12 outputs the generated boundary learning data to the model learning means 13.
モデル学習手段13は、カラー情報を推定するカラー情報推定モデルを学習するものである。このモデル学習手段13は、情報分離手段10で分離された1チャンネルのモノクロ情報(Lチャンネル)と、色指定学習データ生成手段11で生成された3チャンネルの色指定学習データと、境界学習データ生成手段12で生成された1チャンネルの境界学習データとを学習データとして入力する。
そして、モデル学習手段13は、情報分離手段10で分離された2チャンネルのカラー情報(a,bチャンネル)を正解データとして、カラー情報推定モデルMの出力との誤差をなくす方向(誤差が予め定めた値以下になるよう)に、誤差逆伝播法を用いてカラー情報推定モデルM(具体的にはそのモデルパラメータ)を学習する。
モデル学習手段13は、学習したカラー情報推定モデルMをモデル記憶手段14に書き込み記憶する。
The model learning means 13 learns a color information estimation model for estimating color information. The
Then, the
The model learning means 13 writes and stores the learned color information estimation model M in the model storage means 14.
ここで、図6を参照して、モデル学習手段13が学習するカラー情報推定モデルMの構成例について説明する。
図6に示すように、カラー情報推定モデルMは、畳み込み層を含んだニューラルネットワークで構成することができる。
Here, a configuration example of the color information estimation model M learned by the
As shown in FIG. 6, the color information estimation model M can be configured by a neural network including a convolutional layer.
図6に示すように、カラー情報推定モデルMは、入力層Iとして、1チャンネル(1ch)のモノクロ画像と、3チャンネルの色指定情報と、1チャンネルの境界情報と、を入力する。 As shown in FIG. 6, the color information estimation model M inputs, as an input layer I, a monochrome image of one channel (1 ch), color designation information of three channels, and boundary information of one channel.
また、カラー情報推定モデルMは、隠れ層(中間層)Hとして、複数のコンボリューション層(C1〜C6)を有する。
カラー情報推定モデルMは、コンボリューション層C1において、複数のカーネル(畳み込みフィルタ)により、モノクロ画像(1ch)を、モノクロ画像と同じ画像サイズ(垂直H画素×水平W画素)で、予め定めたチャンネル数N(例えば、N=64)のデータに畳み込む。
Also, the color information estimation model M has a plurality of convolution layers (C1 to C6) as the hidden layer (intermediate layer) H.
The color information estimation model M is a channel defined in advance by a plurality of kernels (convolution filters) in the convolution layer C1 and having a monochrome image (1 ch) in the same image size (vertical H pixels × horizontal W pixels) as the monochrome image. Convolve into a number N (eg, N = 64) of data.
また、カラー情報推定モデルMは、コンボリューション層C2において、複数のカーネルにより、色指定情報(3ch)を、H×W画素のチャンネル数Nのデータに畳み込む。また、カラー情報推定モデルMは、コンボリューション層C3において、複数のカーネルにより、境界情報(1ch)を、H×W画素のチャンネル数Nのデータに畳み込む。
そして、カラー情報推定モデルMは、加算器Sにより、Nchに畳み込まれた情報(モノクロ画像、色指定情報、境界情報)を加算する。なお、加算器Sを用いずに、3×Nチャンネルの連結した情報としてもよい。
Further, the color information estimation model M convolutes the color designation information (3 ch) into data of the number N of channels of H × W pixels in the
Then, the color information estimation model M adds the information (monochrome image, color designation information, boundary information) convoluted to Nch by the adder S. It is also possible to use concatenated information of 3 × N channels without using the adder S.
そして、カラー情報推定モデルMは、コンボリューション層C4,C5により、順次、複数のカーネルにより、畳み込みを行う。
最後に、カラー情報推定モデルMは、コンボリューション層C6により、Nchの情報を2chの情報に畳み込む。
カラー情報推定モデルMは、出力層Oとして、2チャンネルの情報をカラー情報であるa,bチャンネルとして出力する。
モデル学習手段13は、各コンボリューション層のカーネル、重み等をモデルパラメータとして学習する。
Then, the color information estimation model M performs convolution using a plurality of kernels sequentially by the convolution layers C4 and C5.
Finally, the color information estimation model M convolves Nch information into 2ch information by the convolution layer C6.
The color information estimation model M outputs information of two channels as an output layer O as channels a and b which are color information.
The
なお、カラー情報推定モデルMのニューラルネットワークの構造は、この実施形態に限定されるものではない。例えば、コンボリューション層の数とパラメータ数(カーネルサイズ、チャンネル数)を変更してもよいし、コンボリューション層以外の層(例えば、全結合層、ノーマライゼーション層)を追加してもよい。 The structure of the neural network of the color information estimation model M is not limited to this embodiment. For example, the number of convolution layers and the number of parameters (kernel size, number of channels) may be changed, or layers other than convolution layers (for example, all bonding layers, normalization layers) may be added.
図2に戻って、カラー情報推定モデル生成装置1の構成について説明を続ける。
モデル記憶手段14は、モデル学習手段13で学習するカラー情報推定モデルMを記憶するものである。このモデル記憶手段14は、半導体メモリ等の一般的な記憶媒体で構成することができる。学習後のカラー情報推定モデルMは、画像カラー化装置2(図1参照)で用いられる。
なお、カラー情報推定モデル生成装置1は、コンピュータを、前記した各手段として機能させるためのカラー情報推定モデル生成プログラムで動作させることができる。
Returning to FIG. 2, the configuration of the color information estimation
The
The color information estimation
以上説明したようにカラー情報推定モデル生成装置1を構成することで、カラー情報推定モデル生成装置1は、モノクロ画像、色指定情報、境界情報を入力として、カラー情報を推定するカラー情報推定モデルMを学習により生成することができる。
また、カラー情報推定モデル生成装置1は、カラー情報推定モデルMを生成する際に、モノクロ画像、色指定情報、境界情報を学習データとして準備することなく、カラー画像Poから学習データを生成することができる。
As described above, by configuring the color information estimation
Also, when generating the color information estimation model M, the color information estimation
<カラー情報推定モデル生成装置:動作>
次に、図7を参照(構成については、適宜図2参照)して、カラー情報推定モデル生成装置1の動作について説明する。図7は、カラー情報推定モデル生成装置1の動作を示すフローチャートである。
ステップS1において、情報分離手段10は、入力したカラー画像を、カラー情報であるa,bチャンネル(2チャンネル)と、モノクロ情報であるLチャンネル(1チャンネル)とに分離する。なお、カラー画像から分離したモノクロ情報は、モノクロ画像であって、そのまま、カラー情報推定モデルMを学習するための学習データ(モノクロ画像学習データ)となる。
<Color Information Estimation Model Generation Device: Operation>
Next, the operation of the color information estimation
In step S1, the
ステップS2において、色指定学習データ生成手段11の指示情報付加手段110は、全要素(全画素)に色指定の指示あり(例えば“1”)の指示情報を設定した1チャンネルのデータを生成し、ステップS1で分離したカラー情報(a,bチャンネル)に付加する。これによって、指示情報付加手段110は、3チャンネルの色指定情報を生成する。
In step S2, the instruction
ステップS3において、色指定学習データ生成手段11のランダム色指定設定手段111は、ステップS2で生成した3チャンネルの色指定情報でランダムに選択した要素(画素)に“0”を設定する。これによって、色指定学習データ生成手段11は、1チャンネルの指示情報において“1”が設定されている要素位置に対応するカラー情報(a,bチャンネル)の画素だけに、有効なa,bの値を持つ色指定学習データを生成する。
In step S3, the random color
ステップS4において、境界学習データ生成手段12の境界検出手段120は、ステップS1で分離したカラー情報であるaチャンネルまたはbチャンネルの少なくとも一方で色が大きく変化する色の境界を検出する。
ステップS5において、境界検出手段120は、境界として検出された画素位置の要素に“1”、境界として検出されなかった画素位置の要素に“0”を設定した1チャンネルのデータ(境界情報)を生成する。
In step S4, the
In step S5, the
ステップS6において、境界学習データ生成手段12のランダム境界選択手段121は、ステップS5で生成した境界情報として“1”が設定されている要素のうちで、ランダムに選択した要素に“0”を設定する。これによって、境界学習データ生成手段12は、カラー情報から検出した境界の一部の画素位置で境界を指示する境界学習データを生成する。
In step S6, the random boundary selection means 121 of the boundary learning data generation means 12 sets “0” to the element selected at random among the elements for which “1” is set as the boundary information generated in step S5. Do. By this, the boundary learning
ステップS7において、モデル学習手段13は、ステップS1で分離したモノクロ画像学習データと、ステップS3で生成した色指定学習データと、ステップS6で生成した境界学習データとを入力し、正解データであるステップS1で分離したカラー情報(a,bチャンネル)を出力するように、カラー情報推定モデルMを学習する。
ステップS8において、モデル学習手段13は、予め定めたカラー画像の入力が終了した、あるいは、学習による推定誤差の変化量が閾値以下となったかにより、学習の終了を判定する。
In step S7, the model learning means 13 inputs the monochrome image learning data separated in step S1, the color designation learning data generated in step S3, and the boundary learning data generated in step S6, and is the correct data. The color information estimation model M is learned so as to output the color information (a, b channels) separated in S1.
In step S8, the
ここで、学習が終了していなければ(ステップS8でNo)、カラー情報推定モデル生成装置1は、ステップS1に戻って、他のカラー画像を入力し、学習を継続する。
一方、学習が終了した場合(ステップS8でYes)、ステップS9において、モデル学習手段13は、学習したカラー情報推定モデルMをモデル記憶手段14に書き込み記憶する。
以上の動作によって、カラー情報推定モデル生成装置1は、カラー画像のみから、モノクロ画像、色指定情報、境界情報を入力として、カラー情報を推定するカラー情報推定モデルを学習により生成することができる。
Here, if the learning is not completed (No in step S8), the color information estimation
On the other hand, when learning is completed (Yes in step S8), in step S9, the model learning means 13 writes the learned color information estimation model M in the model storage means 14 and stores it.
By the above operation, the color information estimation
<画像カラー化装置:構成>
次に、図8を参照して、画像カラー化装置2の構成について説明する。図8は、画像カラー化装置2の構成を示すブロック図である。
図8に示すように、画像カラー化装置2は、画像入力手段20と、色指定指示手段21と、色指定情報生成手段22と、境界指示手段23と、境界情報生成手段24と、モデル記憶手段25と、カラー情報推定手段26と、カラー情報合成手段27と、を備える。
<Image colorization device: Configuration>
Next, the configuration of the
As shown in FIG. 8, the
画像入力手段20は、カラー化を行う対象のモノクロ画像Pmを入力するものである。画像入力手段20は、入力したモノクロ画像PmをLab空間のLチャンネル(1チャンネル)のモノクロ情報(モノクロ画像)として、カラー情報推定手段26およびカラー情報合成手段27に出力する。
The image input means 20 is for inputting a monochrome image Pm to be colored. The image input unit 20 outputs the input monochrome image Pm to the color
色指定指示手段21は、モノクロ画像Pm上で、ユーザが色指定を行いたい位置および色を色指定指示Icとして入力するものである。この色指定指示手段21は、図示を省略した表示装置にモノクロ画像Pmを表示して、マウス、キーボード等の入力手段を介して、色指定指示を入力するものであってもよい。
The color designating
色指定指示Icの位置は、モノクロ画像Pm上の画素位置である。この画素位置は、複数であっても構わない。
色指定指示Icの色は、色指定指示Icの位置に対応する色であって、Lab空間のa,bチャンネルの値(ab値)である。なお、色指定指示Icの色は、a,bチャンネルの値である必要はなく、例えば、RGB値等、他の色空間の色であっても構わない。その場合、色指定指示手段21は、色空間変換を行い、Lab空間のa,bチャンネルの値を求めればよい。
色指定指示手段21は、指示された位置および色(ab値)を、色指定情報生成手段22に出力する。
The position of the color designation instruction Ic is a pixel position on the monochrome image Pm. A plurality of pixel positions may be provided.
The color of the color designation instruction Ic is a color corresponding to the position of the color designation instruction Ic, and is the values (ab values) of the a and b channels in the Lab space. The color of the color designation instruction Ic does not have to be the values of the a and b channels, and may be, for example, a color of another color space such as an RGB value. In that case, the color
The color
なお、色指定指示手段21は、すべての位置に対して色指定を行わないことを示す指示を入力してもよい。その場合、色指定指示手段21は、色指定を行わないことを示す指示を色指定情報生成手段22に出力する。
The color designating
色指定情報生成手段22は、色指定指示Icから、カラー情報推定モデルMの入力となる色指定情報を生成するものである。
色指定情報生成手段22は、モノクロ画像Pmの画像のサイズをH(垂直画素数)×W(水平画素数)の大きさとしたとき、H×W×3の3チャンネルのデータ構造を持つ色指定情報を生成する。この色指定情報は、図3で説明したデータ構造と同じである。
The color designation
The color designation
色指定情報生成手段22は、図3に示したデータ構造において、チャンネルCh1の指示された位置の要素に指示されたa値を設定し、チャンネルCh1の他の要素に予め定めた固定値(“0”)を設定する。
また、色指定情報生成手段22は、チャンネルCh2の指示された位置の要素に指示されたb値を設定し、チャンネルCh2の他の要素に予め定めた固定値(“0”)を設定する。
The color designating information generating means 22 sets the designated a value to the element at the designated position of the channel Ch1 in the data structure shown in FIG.
In addition, the color designation information generation means 22 sets the designated b value to the element at the designated position of the channel Ch2, and sets a predetermined fixed value ("0") to the other elements of the channel Ch2.
また、色指定情報生成手段22は、チャンネルCh3の指示された位置の要素に、色指定の指示があることを示す値(“1”)を設定し、チャンネルCh3の他の要素に、色指定の指示がないことを示す値(“0”)を設定する。
なお、色指定情報生成手段22は、色指定指示手段21から、すべての位置に対して色指定を行わないことを示す指示を入力した場合、3チャンネルのすべての要素に“0”を設定すればよい。
色指定情報生成手段22は、生成した3チャンネルの色指定情報を、カラー情報推定手段26に出力する。
Further, the color designation information generation means 22 sets a value ("1") indicating that there is a color designation instruction in the element at the designated position of the channel Ch3, and designates the color in the other elements of the channel Ch3. Set a value (“0”) indicating that there is no indication of.
When color designation information generation means 22 receives from color designation indication means 21 an instruction indicating that color designation is not performed for all positions, “0” is set for all elements of three channels. Just do it.
The color designation information generation means 22 outputs the generated color designation information of the three channels to the color information estimation means 26.
境界指示手段23は、モノクロ画像Pm上で、ユーザが境界として指定を行いたい位置を境界指示Ibとして入力するものである。この境界指示手段23は、図示を省略した表示装置にモノクロ画像Pmを表示して、マウス等の入力手段を介して、境界指示を入力するものであってもよい。
The
境界指示Ibは、モノクロ画像Pm上の境界を示す画素位置である。この画素位置は、1点であってもよいし、複数であってもよい。例えば、指示された位置が2点であれば、それらの点を結ぶ直線が境界となる。また、指示された位置が3点以上であれば、それらの点を結ぶ曲線が境界となる。また、境界指示Ibは、これらの組み合わせであっても構わない。
境界指示手段23は、指示された位置を、境界情報生成手段24に出力する。
なお、境界指示手段23は、境界指定を行わないことを示す指示を入力してもよい。その場合、境界指示手段23は、境界指定を行わないことを示す指示を境界情報生成手段24に出力する。
The boundary designation Ib is a pixel position indicating a boundary on the monochrome image Pm. This pixel position may be one point or plural points. For example, if the designated position is two points, a straight line connecting those points is the boundary. Also, if the instructed position is three or more points, a curve connecting those points is the boundary. Further, boundary designation Ib may be a combination of these.
The
The
境界情報生成手段24は、境界指示Ibから、カラー情報推定モデルMの入力となる境界情報を生成するものである。
境界情報生成手段24は、モノクロ画像Pmの画像のサイズをH(垂直画素数)×W(水平画素数)の大きさとしたとき、H×W×1の1チャンネルのデータ構造を持つ境界情報を生成する。
境界情報生成手段24は、境界指示Ibで特定される画素位置に対応する要素に、当該画素位置が境界であることを示す値(“1”)を設定し、他の要素に境界ではないことを示す値(“0”)を設定する。
The boundary information generation means 24 generates boundary information to be input of the color information estimation model M from the boundary instruction Ib.
When the size of the monochrome image Pm is H (the number of vertical pixels) × W (the number of horizontal pixels), the boundary
The boundary
なお、境界指示Ibで2点が指示された場合、境界情報生成手段24は、指示された2点間を結ぶ直線上の要素に、境界であることを示す値(“1”)を設定する。また、境界指示Ibで3点以上が指示された場合、境界情報生成手段24は、指示された3点以上を結ぶ曲線を、例えば、スプライン曲線で近似し、曲線上の要素に、境界であることを示す値(“1”)を設定する。
なお、境界情報生成手段24は、境界指示手段23から、境界指定を行わないことを示す指示を入力した場合、1チャンネルの境界情報のすべての要素に“0”を設定すればよい。
境界情報生成手段24は、生成した1チャンネルの境界情報を、カラー情報推定手段26に出力する。
When two points are indicated by the boundary indication Ib, the boundary information generation means 24 sets a value (“1”) indicating an edge as an element on a straight line connecting the indicated two points. . Also, when three or more points are indicated by the boundary indication Ib, the boundary information generation means 24 approximates a curve connecting the indicated three or more points with, for example, a spline curve, and the element on the curve is a boundary Set a value (“1”) to indicate that.
The boundary
The boundary
モデル記憶手段25は、図2で説明したカラー情報推定モデル生成装置1で生成されたカラー情報推定モデルMを記憶するものである。このモデル記憶手段25は、半導体メモリ等の一般的な記憶媒体で構成することができる。
カラー情報推定モデルMは、カラー情報推定手段26によって参照される。
The
The color information estimation model M is referred to by the color information estimation means 26.
カラー情報推定手段26は、モノクロ画像、色指定情報および境界情報を入力し、カラー情報推定モデルMを用いて、カラー情報(a,bチャンネル)を推定するものである。
カラー情報推定手段26は、画像入力手段20から、1チャンネルのモノクロ画像を入力する。また、カラー情報推定手段26は、色指定情報生成手段22から、3チャンネルの色指定情報を入力する。また、カラー情報推定手段26は、境界情報生成手段24から、1チャンネルの境界情報を入力する。
The color information estimation means 26 inputs a monochrome image, color designation information and boundary information, and estimates color information (channels a and b) using the color information estimation model M.
The color
このカラー情報推定手段26は、図6に示したカラー情報推定モデルMにより、モノクロ画像、色指定情報および境界情報を入力層Iへの入力とし、出力層Oから出力される2チャンネルのカラー情報(a,bチャンネル)を演算により生成する。
カラー情報推定手段26は、推定したカラー情報(a,bチャンネル)を、カラー情報合成手段27に出力する。
The color information estimation means 26 uses the color information estimation model M shown in FIG. 6 to input monochrome image, color designation information and boundary information to the input layer I, and output color information of two channels output from the output layer O (A, b channels) are generated by calculation.
The color information estimation means 26 outputs the estimated color information (a, b channels) to the color
カラー情報合成手段27は、画像入力手段20から入力したモノクロ画像をLab色空間のLチャンネルとし、カラー情報推定手段26が推定したカラー情報(a,bチャンネル)を合成するものである。
カラー情報合成手段27は、Lチャンネル、aチャンネルおよびbチャンネルの3チャンネルのデータを、3チャンネルのデータ構造を有するLab色空間のカラー画像Pcとして出力する。
なお、画像カラー化装置2は、コンピュータを、前記した各手段として機能させるための画像カラー化プログラムで動作させることができる。
The color
The color
The
以上説明したように画像カラー化装置2を構成することで、画像カラー化装置2は、モノクロ画像に対して、ユーザから色指定および境界を指示されることで、カラー情報を推定し、カラー画像を生成することができる。
By configuring the
<画像カラー化装置:動作>
次に、図9を参照(構成については、適宜図8参照)して、画像カラー化装置2の動作について説明する。図9は、画像カラー化装置2の動作を示すフローチャートである。
ステップS10において、画像入力手段20は、カラー化を行う対象のモノクロ画像を入力する。モノクロ画像は、カラー情報推定モデルMへの入力となるとともに、最終的に生成するカラー画像を構成するLab色空間のLチャンネルとなる。
<Image colorization device: Operation>
Next, the operation of the
In step S10, the image input unit 20 inputs a monochrome image to be colored. The monochrome image becomes an input to the color information estimation model M and also becomes an L channel of the Lab color space which constitutes a color image to be finally generated.
ステップS11において、色指定指示手段21は、モノクロ画像上で、ユーザが色指定を行いたい位置および色を色指定指示として入力する。
ステップS12において、色指定情報生成手段22は、ステップS11で入力した色指定指示から、カラー情報推定モデルMの入力となる3チャンネルの色指定情報を生成する。色指定情報生成手段22は、色指定が指示された画素位置において、指定されたカラー情報であるLab色空間のa値、b値、ならびに、当該画素位置に色指定が指示されていることを示す値(“1”)を、3チャンネルの対応する要素(画素)に設定することで、色指定情報を生成する。なお、色指定情報生成手段22は、色指定が指示されていない画素位置に対応する要素には、すべて色指定が指示されていることを示す値(“0”)を設定する。
In step S11, the color designating
In step S12, the color designation
ステップS13において、境界指示手段23は、モノクロ画像上で、ユーザが境界として指定を行いたい位置を境界指示として入力する。
ステップS14において、境界情報生成手段24は、ステップS13で入力した境界指示から、カラー情報推定モデルMの入力となる1チャンネルの境界情報を生成する。境界情報生成手段24は、境界指示Ibで特定される画素位置に対応する要素に、境界であることを示す値(“1”)、他の要素に境界ではないことを示す値(“0”)を設定することで、境界情報を生成する。
In step S13, the
In step S14, the boundary
ステップS15において、カラー情報推定手段26は、ステップS10で入力したモノクロ画像、ステップS12で生成した色指定情報、および、ステップS14で生成した境界情報から、カラー情報推定モデルMを用いて、カラー情報(a,bチャンネル)を推定する。
In step S15, the color
ステップS16において、カラー情報合成手段27は、ステップS10で入力したモノクロ画像をLab色空間のLチャンネルとし、ステップS15で推定したカラー情報(a,bチャンネル)を合成することで、カラー画像を生成する。
以上の動作によって、画像カラー化装置2は、カラー情報推定モデル生成装置1で生成したカラー情報推定モデルを用いて、ユーザから色指定や境界の指示を入力することで、正確なカラー画像を生成することができる。
In step S16, the color
By the above operation, the
<画像カラー化装置のカラー画像生成例>
次に、図10を参照して、色指定や境界の指示により、画像カラー化装置2が生成するカラー画像がどのように変化するのかを模式的に説明する。
図10は、色指定指示と境界指示とをそれぞれ行った場合のカラー画像の着色状態を示す。図10中、矢印の左側の図形(ここでは、茶碗)がモノクロ画像、矢印の右側の図形(茶碗)がモノクロ画像をカラー化したカラー画像Pc(Pc1〜Pc4)を模式的に示している。なお、図10では、色の違いをハッチングの違いで表している。また、茶碗中央の帯状領域Zは、輝度値の変化が少ない領域とする。
<Example of color image generation of image colorization device>
Next, with reference to FIG. 10, how the color image generated by the
FIG. 10 shows the colored state of the color image when the color designation instruction and the boundary instruction are respectively given. In FIG. 10, the figure on the left side of the arrow (here, a bowl) indicates a monochrome image, and the figure on the right of the arrow (a bowl) schematically indicates a color image Pc (Pc1 to Pc4) in which the monochrome image is colored. In FIG. 10, the difference in color is indicated by the difference in hatching. In addition, the band-shaped area Z at the center of the teacup is an area in which the change in luminance value is small.
図10(a)は、色指定の指示と境界の指示とがともにない場合を示している。
この場合、茶碗中央の帯状領域Zの輝度値の変化が少ないため、カラー画像Pc1のように、帯状領域Zは、ほぼ同じ色で着色されることになる。
図10(b)は、色指定の指示があり、境界の指示がない場合を示している。また、ここでは、帯状領域の左側に色Aを指定し、右側に色Bを指定している。
この場合、カラー画像Pc2のように、帯状領域Zは、指定された色A,Bで着色される。ただし、帯状領域Zの輝度値の変化が少ないため、色Aと色Bとの境界はにじんだ色となる。
FIG. 10A shows the case where neither the color designation instruction nor the boundary instruction is present.
In this case, since the change in luminance value of the band-shaped area Z at the center of the teacup is small, the band-shaped area Z is colored in substantially the same color as in the color image Pc1.
FIG. 10B shows the case where there is a color designation instruction and no boundary designation. Also, here, the color A is specified on the left side of the band-like region, and the color B is specified on the right side.
In this case, as in the color image Pc2, the band-shaped area Z is colored with the designated colors A and B. However, the boundary between the color A and the color B is a blurred color because the change in the luminance value of the strip area Z is small.
図10(c)は、色指定の指示と境界の指示とがともにあり、境界Cを左寄りに指示した場合を示している。
この場合、カラー画像Pc3のように、帯状領域Zは、指定された左寄りの境界で、指定された色A,Bが分かれて着色される。
図10(d)は、色指定の指示と境界の指示とがともにあり、境界Dを右寄りに指示した場合を示している。
この場合、カラー画像Pc4のように、帯状領域Zは、指定された右寄りの境界で、指定された色A,Bが分かれて着色される。
FIG. 10C shows the case where the color designation instruction and the boundary instruction are both present, and the boundary C is indicated to the left.
In this case, as in the color image Pc3, in the band-shaped area Z, the designated colors A and B are divided and colored at the designated left boundary.
FIG. 10D shows the case where the color designation instruction and the boundary instruction are both present, and the boundary D is indicated to the right.
In this case, as in the color image Pc4, in the band-shaped area Z, the designated colors A and B are separately colored at the designated right boundary.
なお、ここでは、直線で境界を指示した例を示している。この境界は点で指定してもよく、例えば、図10(c)(d)において、点で境界を指定した場合、生成されるカラー画像は、図10(b)のカラー画像Pc2のように、色Aと色Bとの境界はにじんだ色となるが、その境界は指定された点に移動する。 Here, an example in which the boundary is indicated by a straight line is shown. This boundary may be designated by a point. For example, when the boundary is designated by a point in FIGS. 10C and 10D, the color image generated is as shown by a color image Pc2 in FIG. 10B. The boundary between color A and color B is a blurred color, but the boundary moves to a designated point.
<変形例>
以上、本発明の実施形態について説明したが、本発明はこの実施形態に限定されるものではない。
(変形例1)
ここでは、図6に示すように、カラー情報推定モデルMを、モノクロ画像と色指定情報と境界情報との3つの入力でカラー情報(a,bチャンネル)を推定するモデルとした。
しかし、本発明において、色指定情報は必須ではない。
その場合、図2に示したカラー情報推定モデル生成装置1から、色指定学習データ生成手段11を省き、モデル学習手段13が、カラー情報推定モデルMをモノクロ画像と境界情報との2つの入力で学習すればよい。また、図8に示した画像カラー化装置2から、色指定指示手段21および色指定情報生成手段22を省き、カラー情報推定手段26が、モノクロ画像と境界情報との2つの入力でカラー情報(a,bチャンネル)を推定すればよい。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to this embodiment.
(Modification 1)
Here, as shown in FIG. 6, the color information estimation model M is a model for estimating color information (a, b channels) with three inputs of a monochrome image, color designation information, and boundary information.
However, color designation information is not essential in the present invention.
In that case, the color designation learning data generation means 11 is omitted from the color information estimation
もちろん、カラー情報推定モデルMは、モノクロ画像、色指定情報、境界情報以外に、他の情報を追加してカラー情報を推定するモデルとしてもよい。例えば、カラー情報推定モデルMの入力として、モノクロ画像のエッジデータ、ジャンル(アニメ、ドラマ、ニュース等)等を用いてもよい。 Of course, the color information estimation model M may be a model that estimates color information by adding other information besides monochrome images, color designation information, and boundary information. For example, as input of the color information estimation model M, edge data of a monochrome image, a genre (animation, drama, news, etc.) or the like may be used.
モノクロ画像のエッジデータを入力とすることで、カラー情報推定モデルMは、モノクロ画像のエッジによって、色を精度よく区分することが可能なモデルになる。また、ジャンルを入力とすることで、カラー情報推定モデルMは、ジャンル固有の色合いを推定することが可能なモデルとなる。 By inputting edge data of a monochrome image, the color information estimation model M becomes a model capable of accurately classifying colors by the edge of the monochrome image. Further, by using the genre as an input, the color information estimation model M becomes a model capable of estimating the hue specific to the genre.
例えば、モノクロ画像のエッジデータをカラー情報推定モデルMの入力とする場合、図2に示したカラー情報推定モデル生成装置1において、エッジを検出するエッジ検出手段を備えればよい。そして、エッジ検出手段が、情報分離手段10で分離したモノクロ情報であるLチャンネルからエッジを検出し、エッジデータ(エッジ画像)を1チャンネルの情報として、モデル学習手段13に出力すればよい。
また、図8に示した画像カラー化装置2においても、エッジ検出手段を備えればよい。そして、エッジ検出手段が、画像入力手段20で入力したモノクロ画像を入力してエッジを検出し、エッジデータ(エッジ画像)を1チャンネルの情報として、カラー情報推定手段26に出力すればよい。
For example, when edge data of a monochrome image is used as the input of the color information estimation model M, the color information estimation
In addition, the image
また、例えば、モノクロ画像のジャンルをカラー情報推定モデルMの入力とする場合、カラー情報推定モデル生成装置1および画像カラー化装置2において、取り扱うジャンルの種類をNjとしたとき、Njチャンネル分のデータ(ジャンル情報)を生成するジャンル情報生成手段を備え、ジャンル情報を、モデル学習手段13、カラー情報推定手段26に出力することとすればよい。このジャンル情報は、ひとつのチャンネルにひとつのジャンルが対応するものとする。そして、ジャンル情報生成手段は、該当ジャンルに対応するチャンネルのみにジャンルが設定されていることを示す値(例えば、“1”)、それ以外のチャンネルにはジャンルが設定されていないことを示す値(例えば“0”)を設定することで、ジャンル情報を生成する。これによって、モノクロ画像に複数のジャンルが対応する場合でも、カラー情報推定モデルMの入力として使用することができる。
Also, for example, when the genre of monochrome image is input to the color information estimation model M, when the type of genre to be handled is Nj in the color information estimation
(変形例2)
また、ここでは、図6に示すように、カラー情報推定モデルMを、モノクロ画像(1チャンネル)、色指定情報(3チャンネル)、境界情報(1チャンネル)の3つの入力をそれぞれ個別に畳み込んだ後、加算(または連結)するモデルとした。
しかし、カラー情報推定モデルMは、これら3つの入力を連結し、5チャンネルのデータに対して畳み込みを行ってもよい。もちろん、3つの入力をすべて連結する必要はなく、その中の任意の2つを連結し、畳み込んだ後、それぞれを加算(または連結)することとしてもよい。例えば、モノクロ画像の1チャンネルと、色指定情報および境界情報を連結した4チャンネルとに分けて畳み込みを行う等である。
(Modification 2)
Further, here, as shown in FIG. 6, the color information estimation model M is individually convoluted into three inputs of a monochrome image (1 channel), color designation information (3 channels), and boundary information (1 channel). After that, the model was added (or connected).
However, the color information estimation model M may connect these three inputs and perform convolution on data of 5 channels. Of course, it is not necessary to connect all three inputs, and arbitrary two of them may be connected, folded, and then each added (or connected). For example, convolution is performed by dividing into one channel of a monochrome image and four channels in which color designation information and boundary information are connected.
(変形例3)
また、ここでは、カラー画像をLab色空間の画像とした。しかし、カラー画像は、Lab色空間の画像に限定するものではなく、他の色空間(例えば、RGB色空間)の画像であっても構わない。
(Modification 3)
Also, in this case, the color image is an image of the Lab color space. However, the color image is not limited to an image in the Lab color space, and may be an image in another color space (for example, an RGB color space).
例えば、図2に示したカラー情報推定モデル生成装置1において、RGB色空間のカラー画像を学習データとして、カラー情報推定モデルMを生成する場合、情報分離手段10の前段に、色空間変換手段を備えればよい。そして、色空間変換手段が、RGB色空間のカラー画像をLab色空間のカラー画像に変換し、情報分離手段10に出力すればよい。
また、図8に示した画像カラー化装置2において、カラー情報合成手段27の後段に、Lab色空間のカラー画像をRGB色空間のカラー画像に変換する色空間変換手段を備えればよい。
For example, when color information estimation model M is generated using color images in the RGB color space as learning data in color information estimation
Further, in the
1 カラー情報推定モデル生成装置
10 情報分離手段
11 色指定学習データ生成手段
110 指示情報付加手段
111 ランダム色指定設定手段
12 境界学習データ生成手段
120 境界検出手段
121 ランダム境界選択手段
13 モデル学習手段
14 モデル記憶手段
2 画像カラー化装置
20 画像入力手段
21 色指定指示手段
22 色指定情報生成手段
23 境界指示手段
24 境界情報生成手段
25 モデル記憶手段
26 カラー情報推定手段
27 カラー情報合成手段
DESCRIPTION OF
Claims (7)
学習データであるカラー画像を明度成分であるモノクロ情報と明度成分以外の色成分であるカラー情報とに分離する情報分離手段と、
前記情報分離手段で分離したカラー情報において、色の変化が予め定めた閾値よりも大きい境界から画素をランダムに選択し、その位置を示す境界情報を生成する境界学習データ生成手段と、
前記モノクロ情報と前記境界情報とを入力し、前記情報分離手段で分離したカラー情報を正解データとしてニューラルネットワークを学習することで前記カラー情報推定モデルを生成するモデル学習手段と、
を備えることを特徴とするカラー情報推定モデル生成装置。 A color information estimation model generation apparatus for generating a color information estimation model for estimating color information from a monochrome image, comprising:
Information separation means for separating a color image which is learning data into monochrome information which is a lightness component and color information which is a color component other than the lightness component;
Boundary learning data generation means for randomly selecting pixels from the boundaries where color change is larger than a predetermined threshold in color information separated by the information separation means, and generating boundary information indicating the position;
Model learning means for generating the color information estimation model by inputting the monochrome information and the boundary information and learning a neural network using the color information separated by the information separation means as correct data;
An apparatus for generating a color information estimation model, comprising:
前記境界学習データ生成手段は、
前記第1色成分および前記第2色成分のそれぞれで色の境界を検出する境界手段と、
前記第1色成分および前記第2色成分の少なくとも一方で境界として検出された画素位置からランダムに選択した画素位置に、境界であることを示す情報を設定することで前記境界情報を生成するランダム境界選択手段と、
を備えることを特徴とする請求項1に記載のカラー情報推定モデル生成装置。 The information separation unit separates monochrome information of the color image as a lightness component of a color space, and separates color information of the color image as a first color component and a second color component of the color space.
The boundary learning data generation means
Boundary means for detecting color boundaries in each of the first color component and the second color component;
The boundary information is generated randomly by setting information indicating a boundary at a pixel position randomly selected from a pixel position detected as a boundary at least one of the first color component and the second color component. Boundary selection means,
The color information estimation model generation apparatus according to claim 1, comprising:
前記モデル学習手段は、前記モノクロ情報と前記境界情報と前記色指定情報とを入力し、前記ニューラルネットワークを学習することを特徴とする請求項1または請求項2に記載のカラー情報推定モデル生成装置。 In the color information separated by the information separating means, the instruction information in which the information indicating the presence or absence of the instruction for specifying the color is randomly set for each pixel is added to the color information, and the pixel of the instruction information without the instruction for the color specification And color specification learning data generation means for generating color specification information in which a predetermined fixed value is set to the pixel of the color information corresponding to
The color information estimation model generating apparatus according to claim 1 or 2, wherein the model learning means learns the neural network by inputting the monochrome information, the boundary information, and the color designation information. .
前記モノクロ画像における境界の位置を境界指示として入力する境界指示手段と、
前記モノクロ画像の画素位置に対応して、前記境界指示で指示された画素位置に境界であることを示す情報を設定した境界情報を生成する境界情報生成手段と、
前記カラー情報推定モデルを用いて、モノクロ情報である前記モノクロ画像と前記境界情報とからカラー情報を推定するカラー情報推定手段と、
前記カラー情報推定手段で推定されたカラー情報と前記モノクロ画像とを合成することで、前記カラー画像を生成するカラー画像合成手段と、
を備えることを特徴とする画像カラー化装置。 An image colorization apparatus for estimating color information from a monochrome image using the color information estimation model generated by the color information estimation model generation apparatus according to claim 1 or 2, and generating a color image,
Boundary designation means for inputting the position of the boundary in the monochrome image as the boundary designation;
Boundary information generation means for generating boundary information in which information indicating a boundary is set at the pixel position instructed by the boundary instruction corresponding to the pixel position of the monochrome image;
Color information estimation means for estimating color information from the monochrome image as monochrome information and the boundary information using the color information estimation model;
Color image combining means for generating the color image by combining the color information estimated by the color information estimation means with the monochrome image;
An image colorization apparatus comprising:
前記モノクロ画像における境界の位置を境界指示として入力する境界指示手段と、
前記モノクロ画像の画素位置に対応して、前記境界指示で指示された画素位置に境界であることを示す情報を設定した境界情報を生成する境界情報生成手段と、
前記モノクロ画像における色指定を行う位置および色を色指定指示として入力する色指定指示入力手段と、
前記モノクロ画像の画素位置に対応して、前記色指定指示の有無を示す指示情報と、色指定された色をカラー情報とを設定した色指定情報を生成する色指定情報生成手段と、
前記カラー情報推定モデルを用いて、モノクロ情報である前記モノクロ画像と前記境界情報と前記色指定情報とからカラー情報を推定するカラー情報推定手段と、
前記カラー情報推定手段で推定されたカラー情報と前記モノクロ画像とを合成することで、前記カラー画像を生成するカラー画像合成手段と、
を備えることを特徴とする画像カラー化装置。 An image colorization apparatus for estimating color information from a monochrome image using the color information estimation model generated by the color information estimation model generation apparatus according to claim 3 to generate a color image,
Boundary designation means for inputting the position of the boundary in the monochrome image as the boundary designation;
Boundary information generation means for generating boundary information in which information indicating a boundary is set at the pixel position instructed by the boundary instruction corresponding to the pixel position of the monochrome image;
A color designation instruction input unit that inputs, as a color designation instruction, a position and a color for performing color designation in the monochrome image;
Color designation information generation means for generating color designation information in which instruction information indicating presence / absence of the color designation instruction is set corresponding to a pixel position of the monochrome image, and color information for which a color designated color is set;
Color information estimation means for estimating color information from the monochrome image which is monochrome information, the boundary information, and the color designation information using the color information estimation model;
Color image combining means for generating the color image by combining the color information estimated by the color information estimation means with the monochrome image;
An image colorization apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017251872A JP6986438B2 (en) | 2017-12-27 | 2017-12-27 | Color information estimation model generator, image colorizer and their programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017251872A JP6986438B2 (en) | 2017-12-27 | 2017-12-27 | Color information estimation model generator, image colorizer and their programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019117558A true JP2019117558A (en) | 2019-07-18 |
JP6986438B2 JP6986438B2 (en) | 2021-12-22 |
Family
ID=67304498
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017251872A Active JP6986438B2 (en) | 2017-12-27 | 2017-12-27 | Color information estimation model generator, image colorizer and their programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6986438B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2021161454A1 (en) * | 2020-02-13 | 2021-08-19 | ||
WO2021162263A1 (en) * | 2020-02-10 | 2021-08-19 | 삼성전자 주식회사 | Method for generating image and electronic device therefor |
JPWO2021161453A1 (en) * | 2020-02-13 | 2021-08-19 | ||
KR20210109719A (en) * | 2020-02-27 | 2021-09-07 | 에스케이텔레콤 주식회사 | Method and Apparatus for Video Colorization |
JP2022547769A (en) * | 2019-09-11 | 2022-11-16 | グーグル エルエルシー | Image colorization using machine learning |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004334814A (en) * | 2003-05-07 | 2004-11-25 | Susumu Shiroyama | Technique, device, and program of colorization of monochromatic image |
US20080170248A1 (en) * | 2007-01-17 | 2008-07-17 | Samsung Electronics Co., Ltd. | Apparatus and method of compensating chromatic aberration of image |
JP2011172261A (en) * | 2007-05-24 | 2011-09-01 | Fuji Xerox Co Ltd | Image processing apparatus and image processing program |
JP2014106565A (en) * | 2012-11-22 | 2014-06-09 | Nippon Telegr & Teleph Corp <Ntt> | Object area boundary estimation device and program |
CN107330956A (en) * | 2017-07-03 | 2017-11-07 | 广东工业大学 | A kind of unsupervised painting methods of caricature manual draw and device |
-
2017
- 2017-12-27 JP JP2017251872A patent/JP6986438B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004334814A (en) * | 2003-05-07 | 2004-11-25 | Susumu Shiroyama | Technique, device, and program of colorization of monochromatic image |
US20080170248A1 (en) * | 2007-01-17 | 2008-07-17 | Samsung Electronics Co., Ltd. | Apparatus and method of compensating chromatic aberration of image |
JP2011172261A (en) * | 2007-05-24 | 2011-09-01 | Fuji Xerox Co Ltd | Image processing apparatus and image processing program |
JP2014106565A (en) * | 2012-11-22 | 2014-06-09 | Nippon Telegr & Teleph Corp <Ntt> | Object area boundary estimation device and program |
CN107330956A (en) * | 2017-07-03 | 2017-11-07 | 广东工业大学 | A kind of unsupervised painting methods of caricature manual draw and device |
Non-Patent Citations (4)
Title |
---|
L. VINCENT ET AL.: ""Watersheds in Digital Spaces: An Efficient Algorithm Based on Immersion Simulations"", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 13, no. 6, JPN6021043024, 30 June 1991 (1991-06-30), US, pages 583 - 598, XP000949356, ISSN: 0004629460, DOI: 10.1109/34.87344 * |
N. ANAGNOSTOPOULOS ET AL.: ""Two-Staged Image Colorization Based on Salient Contours"", 2014 IEEE INTERNATIONAL CONFERENCE ON IMAGING SYSTEMS AND TECHNIQUES (IST) PROCEEDINGS, JPN6021043025, 14 October 2014 (2014-10-14), US, pages 1 - 5, ISSN: 0004629459 * |
品川 淳、長尾 智晴: ""エッジ画像を用いた領域成長法によるモノクロ画像のカラー化"", 電子情報通信学会2013年総合大会講演論文集 情報・システム2, JPN6021043026, 5 March 2013 (2013-03-05), JP, pages 35, ISSN: 0004629458 * |
石川 博: ""人工知能で白黒写真をカラーに"", 画像ラボ, vol. 28, no. 10, JPN6021043027, 10 October 2017 (2017-10-10), JP, pages 14 - 21, ISSN: 0004629457 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022547769A (en) * | 2019-09-11 | 2022-11-16 | グーグル エルエルシー | Image colorization using machine learning |
JP7490004B2 (en) | 2019-09-11 | 2024-05-24 | グーグル エルエルシー | Image Colorization Using Machine Learning |
WO2021162263A1 (en) * | 2020-02-10 | 2021-08-19 | 삼성전자 주식회사 | Method for generating image and electronic device therefor |
JPWO2021161454A1 (en) * | 2020-02-13 | 2021-08-19 | ||
WO2021161454A1 (en) * | 2020-02-13 | 2021-08-19 | 日本電気株式会社 | Image processing system, image processing method, and non-transitory computer-readable medium |
JPWO2021161453A1 (en) * | 2020-02-13 | 2021-08-19 | ||
WO2021161453A1 (en) * | 2020-02-13 | 2021-08-19 | 日本電気株式会社 | Image processing system, image processing method, and nontemporary computer-readable medium |
JP7351358B2 (en) | 2020-02-13 | 2023-09-27 | 日本電気株式会社 | Image processing system, image processing method, and image processing program |
JP7444179B2 (en) | 2020-02-13 | 2024-03-06 | 日本電気株式会社 | Image processing system, image processing method, and image processing program |
KR20210109719A (en) * | 2020-02-27 | 2021-09-07 | 에스케이텔레콤 주식회사 | Method and Apparatus for Video Colorization |
KR102342526B1 (en) | 2020-02-27 | 2021-12-23 | 에스케이텔레콤 주식회사 | Method and Apparatus for Video Colorization |
Also Published As
Publication number | Publication date |
---|---|
JP6986438B2 (en) | 2021-12-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6986438B2 (en) | Color information estimation model generator, image colorizer and their programs | |
US9639945B2 (en) | Depth-based application of image effects | |
CN104364825B (en) | Augmented reality aids in the vision accommodation of video conference | |
WO2018032783A1 (en) | Image processing method and apparatus | |
CN111223106B (en) | Full-automatic portrait mask matting method and system | |
CN111754517A (en) | Interactive image matting using neural networks | |
JP2019525515A (en) | Multiview scene segmentation and propagation | |
US9865032B2 (en) | Focal length warping | |
US20110206282A1 (en) | Device, Method, and Program for Image Processing | |
CN107316286B (en) | Method and device for synchronously synthesizing and removing rain and fog in image | |
JP6408314B2 (en) | Color video processing system and method, and corresponding computer program | |
US9185270B2 (en) | Ghost artifact detection and removal in HDR image creation using graph based selection of local reference | |
CN112991371B (en) | Automatic image coloring method and system based on coloring overflow constraint | |
US9692987B2 (en) | Method for applying multi-layered film grain and texture mapping to a digital video image | |
CN115082328A (en) | Method and apparatus for image correction | |
JP7463186B2 (en) | Information processing device, information processing method, and program | |
CN113301409A (en) | Video synthesis method and device, electronic equipment and readable storage medium | |
CN108171776B (en) | Method for realizing image editing propagation based on improved convolutional neural network | |
JP2007506321A (en) | Method and system for modifying a digital image differentially quasi-regularly from pixel to pixel | |
JP5973804B2 (en) | Image processing apparatus and control method thereof | |
US9786055B1 (en) | Method and apparatus for real-time matting using local color estimation and propagation | |
JP2019117559A (en) | Color information estimation model generating device, moving image colorization device, and programs for the same | |
TWI267801B (en) | Automatically detecting and replacing method of new and old background in an object | |
JP2019029938A (en) | Error calculator and its program | |
CN113240573B (en) | High-resolution image style transformation method and system for local and global parallel learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201026 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211102 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6986438 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |