JP2004334814A - Technique, device, and program of colorization of monochromatic image - Google Patents

Technique, device, and program of colorization of monochromatic image Download PDF

Info

Publication number
JP2004334814A
JP2004334814A JP2003164364A JP2003164364A JP2004334814A JP 2004334814 A JP2004334814 A JP 2004334814A JP 2003164364 A JP2003164364 A JP 2003164364A JP 2003164364 A JP2003164364 A JP 2003164364A JP 2004334814 A JP2004334814 A JP 2004334814A
Authority
JP
Japan
Prior art keywords
image
learning
monochrome image
monochrome
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003164364A
Other languages
Japanese (ja)
Inventor
Susumu Shiroyama
晋 白山
Yohei Kobayashi
洋平 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2003164364A priority Critical patent/JP2004334814A/en
Publication of JP2004334814A publication Critical patent/JP2004334814A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Color Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To obtain a color image with natural shade by few manual operations in colorization of a monochromatic image. <P>SOLUTION: A part or all of the monochromatic image to be colorized is corresponded with a part or all of one or more reference color images. A teacher signal is created by using statistics values including a mean and a standard deviation of an image element such as intensity of the reference color image and its neighboring element as an input signal for the corresponded image region and color information of the reference color image as an output signal element. A neural network is used for learning and the monochromatic image is colorized on the basis of a result of the learning. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
この発明は,ニューラルネットワークを用いて単一、あるいは複数のモノクロ画像をカラー化する方法に関するものである。
【0002】
【従来の技術】
モノクロ画像のカラー化は一つの成分で表された画素に多次元の値を与えることになるので、本質的に正しい解は存在しない。このため、作業者の経験や勘に依存したカラー化が行われている。代表的な方法としては、輝度値を適当に区分して用意したカラーマップを用いて段階的に色付けする方法(従来手法1)、作業者が任意の色を選びモノクロ画像の任意の場所に直接色を塗る方法(従来手法2)がある。
【0003】
一方、カラー画像である参照画像と、モノクロ画像である目標画像を用いて、参照画像から目標画像に色を移行するという手法(従来手法3)が提案されている(T.Welsh,M.Ashikhmin and K.Mueller「Transferring color tograyscale images」Proceedings of SIGGRAPH 2002,pp.277−279,2002)。Welshらはこの方法を用いて、いくつかのモノクロ画像の半自動的なカラー化に成功している。
【0004】
【発明が解決しようとする課題】
上述した従来手法1では、輝度値とカラーマップの対応に物理的な意味がある場合等においては意図されたカラー画像を得ることができるが、一般のモノクロ画像を違和感のないカラー画像にすることは難しい。
【0005】
従来手法2では、作業者が各々の領域に対して手作業で色付けしなければならず、その負担は大きなものになっている。
【0006】
一方、従来手法3では、従来手法2に対して作業者の手作業を減らし、簡単なカラー化を行うものになっている。しかしながら、この手法では物体のエッジ部分や形状が入り組んでいる領域等でノイズ状の色分布になるという問題点がある。また、参照画像から抽出した色のみによってカラー化されるため、色の種類が制限される。自然な階調のカラー画像を得るためには、注意深く参照画像を選択し、参照画像から適切な画素を選択する必要がある。
【0007】
本発明の目的は、モノクロ画像のカラー化において、前述した従来手法3の問題点を解決し、手作業が少なく、自然な階調のカラー画像を得ることにある。
【0008】
【課題を解決するための手段】
カラー化されるモノクロ画像の一部分又は全領域を、単一又は複数の参照カラー画像の一部分又は全領域と対応させ、対応付けられた画像領域に対して学習用データを決定する。部分的な対応に対しては、Reinhardらの提案したswatch(E.Reinhard,M.Ashikhmin,M.Goochand P.Shirly「Color Transferbetween Images」,IEEE Computer Graphics and Application,vol.21,no.5,pp.34−41,2001)を用いる(図4)。
【0009】
入力信号として、参照カラー画像の画素のモノクロ画像の画像成分と対応づけられた輝度等の画像成分(以下対応画像成分と呼ぶ)と、その成分の近傍の平均や標準偏差等の統計量を用いる。出力信号は参照カラー画像の色情報である。これらを教師信号とし、各々の対応領域に対して教師信号と出力信号の類似度が最も大きくなるようにニューラルネットワークを用いて所定の回数だけ学習ステップを進め、学習済みネットワーク群を得る。
【0010】
学習結果にもとづいて、モノクロ画像の対応領域をカラー化する。参照カラー画像と対応付けられていないカラー化対象領域に関しては、学習済みネットワーク群を利用してカラー化する。
【0011】
【発明の実施の形態】
本発明の実施形態を、図1及び図2を参照して説明する。はじめに、カラー化される単一又は複数のモノクロ画像とカラー画像群を用意する。次に非カラー化領域決定部10においてモノクロ画像群に対してカラー化の対象としない領域を決める。
【0012】
参照カラー画像群選択部11において用意したカラー画像群から参照カラー画像群を選択し、カラー化領域の対応付け部12においてカラー化されるモノクロ画像の領域と参照カラー画像の領域を対応させる。図3に参照カラー画像とモノクロ画像の全領域が対応付けられる例を、図4にReinhardらの提案したswatchの利用例として、参照カラー画像の一部分がモノクロ画像の一部分に対応する例を示す。
【0013】
次に図2を参照して、図1の対応領域の学習済みネットワーク生成部13を説明する。対応領域の学習済みネットワーク生成部13は、主として入力信号成分決定部20、出力信号成分決定部21、入力信号生成部22、教師信号生成部23、ニューラルネットワークによる学習部24、学習終了判断部25から構成され、各々の対応領域に対してニューラルネットワークを利用した学習を行う。
【0014】
入力信号成分決定部20においては、はじめに対応画像成分を決める。例えば、これを輝度とすれば、参照カラー画像の成分をYUV(Yは輝度信号、UとVは色差信号を表す)に変換し輝度を対応画像成分とする。次に参照カラー画像のある画素における対応画像成分と、その画素の近傍の画素の対応画像成分を用いて、平均、標準偏差等の統計量を算出し、対応画像成分、及び統計量を用いて入力信号成分を決定する。出力信号成分決定部21では、出力信号となる色情報の成分を決定する。例えば、U、Vを出力信号成分とする。
【0015】
次に入力信号生成部22において、参照カラー画像上のモノクロ画像に対応付けられた画像領域の中から適当な方法で複数の画素を抽出する。均等抽出の例を図5に示す。抽出された参照カラー画像の複数の画素における入力信号成分を用いて入力信号を生成する。
【0016】
参照カラー画像から抽出した画素の色情報の成分を出力信号とし、教師信号生成部23において前記入力信号と合わせて教師信号を生成する。この後、ニューラルネットワークによる学習部24において、ニューラルネットワークによって学習を行う。例えば、入力信号として抽出された各々の画素の輝度、及び近傍画素の輝度の平均、標準偏差の3つのものを用い、出力信号として色差信号UVを用いる。図6に一つの画素に対するニューラルネットワークの一部分を示す。ニューラルネットワークの構造としては階層型ネットワークを用い、参照カラー画像の色差信号UVを教師信号とし、誤差逆伝播学習法により、実際の出力と教師信号の誤差が減少するようにニューロン間の重みを所定の回数だけ修正することによって学習する。なお、所定の回数以下の場合であっても、学習の途中で誤差が敷居値以下になった場合は学習終了判断部25に進む。
【0017】
学習の終了は、学習終了判断部25において判断される。はじめに誤差が敷居値以下になっているか、学習ステップが所定の回数分進められたかによって判断される。誤差が敷居値以下の場合は、学習に成功したものとし学習済みフラグを1とし、14に進む。所定回数の学習ステップが終了し、誤差が大きい場合は、入力信号成分決定部20に戻るかどうかが問い合わされる。入力信号成分決定部20に戻らない場合は、学習済みフラグを1(学習に成功)、又は0(学習に失敗)に設定することで14に進む。
【0018】
対応領域に対する学習終了判断部14では、学習済みフラグの値によって学習に失敗した対応領域を判断し、失敗した領域がある場合はカラー化領域の対応付け部12に戻る。すべての対応領域で学習に成功している場合は、カラー化が行われる。
【0019】
カラー化は、はじめに対応領域のカラー化部15において、モノクロ画像の各々の対応領域の画素に対して、各々の学習済みネットワークを利用して出力として色情報を得ることによって行われる。例えば、輝度、及び近傍画素の輝度の平均、標準偏差の3つのものを与え、色差信号UVを得ることによってモノクロ画像の対応領域の画素のYUVが決定する。
【0020】
モノクロ画像において対応領域以外にカラー化対象領域が存在する場合は、非対応領域のカラー化部16において学習済みネットワーク群を利用してカラー化する。例えば、カラー化されたモノクロ画像の対応領域上の画素群に対して、画素の輝度、及び近傍画素の輝度の平均、標準偏差を求め、それらの平均値を各々の対応領域の代表値とする。対応領域以外の画素に対して、画素の輝度、及び近傍画素の輝度の平均、標準偏差を求め、代表値と比べることによって最も類似度の大きい対応領域を求め、その領域の学習済みネットワークを用いてカラー化する。このようにして、モノクロ画像におけるカラー化対象領域がカラー化される。終了処理部17において、カラー化に成功したと判断すれば、カラー化処理を終了し、そうでない場合は、参照カラー画像群選択部11まで戻る。
【0021】
【発明の効果】
本発明によって、従来手法3の欠点である物体のエッジ部分や形状が入り組んでいる領域等でノイズ状の色分布になるという問題を解決できる。また、自然な階調のカラー画像を得ることができる。
【図面の簡単な説明】
【図1】本発明のモノクロ画像のカラー化処理装置の構成を表すブロック図
【図2】対応領域の学習済みネットワーク生成部の構成を表すブロック図
【図3】参照カラー画像とモノクロ画像の全領域が対応付けられた例
【図4】参照カラー画像とモノクロ画像がswatchによって対応付けられた例
【図5】参照カラー画像からの画素の抽出例
【図6】一つの画素に対するニューラルネットワークの一部分
【符号の説明】
10 非カラー化領域決定部
11 参照カラー画像群選択部
12 カラー化領域の対応付け部
13 対応領域の学習済みネットワーク生成部
14 対応領域に対する学習終了判断部
15 対応領域のカラー化部
16 非対応領域のカラー化部
17 終了処理部
20 入力信号成分決定部
21 出力信号成分決定部
22 入力信号生成部
23 教師信号生成部
24 ニューラルネットワークによる学習部
30 参照カラー画像
31 カラー化されるモノクロ画像
40 参照カラー画像
41 参照カラー画像
42 カラー化されるモノクロ画像
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a method for colorizing a single or a plurality of monochrome images using a neural network.
[0002]
[Prior art]
Since the colorization of a monochrome image gives multi-dimensional values to pixels represented by one component, there is essentially no correct solution. For this reason, colorization is performed depending on the experience and intuition of the worker. As a typical method, a method in which luminance values are colored stepwise using a color map prepared by appropriately dividing luminance values (conventional method 1), an operator selects an arbitrary color and directly places it in an arbitrary position of a monochrome image There is a method of applying a color (conventional method 2).
[0003]
On the other hand, a technique (conventional technique 3) of shifting colors from the reference image to the target image using a reference image that is a color image and a target image that is a monochrome image has been proposed (T. Welsh, M. Ashikmin). and K. Mueller "Transferring color grayscale images" Proceedings of SIGGRAPH 2002, pp. 277-279, 2002). Welsh et al. Have successfully semi-automatically colorized some monochrome images using this method.
[0004]
[Problems to be solved by the invention]
According to the above-described conventional method 1, an intended color image can be obtained when the correspondence between the luminance value and the color map has a physical meaning, for example, but a general monochrome image can be obtained as a color image without a sense of incongruity. Is difficult.
[0005]
In the conventional method 2, the operator has to manually color each area, and the burden is heavy.
[0006]
On the other hand, in the conventional method 3, the manual operation of the operator is reduced compared to the conventional method 2, and simple colorization is performed. However, this method has a problem that a noise-like color distribution is formed in an edge portion of an object or a region where a shape is complicated. Further, since colorization is performed using only the color extracted from the reference image, the type of color is limited. In order to obtain a color image with a natural gradation, it is necessary to carefully select a reference image and select appropriate pixels from the reference image.
[0007]
An object of the present invention is to solve the above-described problem of the conventional method 3 in colorizing a monochrome image and to obtain a color image with a small number of manual operations and a natural gradation.
[0008]
[Means for Solving the Problems]
A part or the whole area of the monochrome image to be colorized is made to correspond to a part or the whole area of one or a plurality of reference color images, and learning data is determined for the associated image area. Regarding the partial correspondence, the switch proposed by Reinhard et al. (E. Reinhard, M. Ashikmin, M. Goochand P. Shirley, "Color Transferwetween Images", IEEE Computer Graphics, A.P. pp. 34-41, 2001) (FIG. 4).
[0009]
As an input signal, an image component such as luminance associated with an image component of a monochrome image of pixels of a reference color image (hereinafter referred to as a corresponding image component) and statistics such as an average and a standard deviation in the vicinity of the component are used. . The output signal is color information of the reference color image. Using these as teacher signals, the learning step is performed a predetermined number of times using a neural network so that the similarity between the teacher signal and the output signal is maximized for each corresponding area, and a group of learned networks is obtained.
[0010]
The corresponding area of the monochrome image is colored based on the learning result. The colorization target area not associated with the reference color image is colored using the learned network group.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described with reference to FIGS. First, a single or plural monochrome images and a group of color images to be colorized are prepared. Next, the non-colored area determination unit 10 determines an area that is not to be colored for the monochrome image group.
[0012]
The reference color image group is selected from the color image group prepared by the reference color image group selection unit 11, and the monochrome image region to be colorized and the reference color image region are made to correspond by the colorization region association unit 12. FIG. 3 shows an example in which the entire area of the reference color image and the entire area of the monochrome image are associated with each other. FIG.
[0013]
Next, the learned network generation unit 13 of the corresponding region in FIG. 1 will be described with reference to FIG. The learned network generator 13 of the corresponding area mainly includes an input signal component determiner 20, an output signal component determiner 21, an input signal generator 22, a teacher signal generator 23, a neural network learning unit 24, and a learning end determining unit 25. And performs learning using a neural network for each corresponding region.
[0014]
The input signal component determination unit 20 first determines a corresponding image component. For example, if this is luminance, the components of the reference color image are converted into YUV (Y represents a luminance signal, and U and V represent color difference signals), and the luminance is set as a corresponding image component. Next, using the corresponding image component at a certain pixel of the reference color image and the corresponding image component of a pixel near the pixel, calculate a statistic such as an average and a standard deviation, and use the corresponding image component and the statistic. Determine the input signal component. The output signal component determination unit 21 determines a color information component to be an output signal. For example, U and V are output signal components.
[0015]
Next, the input signal generation unit 22 extracts a plurality of pixels from the image area corresponding to the monochrome image on the reference color image by an appropriate method. FIG. 5 shows an example of the uniform extraction. An input signal is generated using input signal components of a plurality of pixels of the extracted reference color image.
[0016]
The component of the color information of the pixel extracted from the reference color image is used as an output signal, and a teacher signal generation unit 23 generates a teacher signal together with the input signal. Thereafter, learning is performed by the neural network in the learning unit 24 using the neural network. For example, the luminance of each pixel extracted as an input signal, the average of the luminance of neighboring pixels, and the standard deviation are used, and the color difference signal UV is used as an output signal. FIG. 6 shows a part of the neural network for one pixel. The structure of the neural network is a hierarchical network, the color difference signal UV of the reference color image is used as a teacher signal, and the weight between neurons is determined by the error back propagation learning method so that the error between the actual output and the teacher signal is reduced. Learn by modifying the number of times. In addition, even if the number of times is equal to or less than the predetermined number, if the error becomes equal to or less than the threshold value during the learning, the process proceeds to the learning end determination unit 25.
[0017]
The end of the learning is determined by the learning end determining unit 25. First, it is determined whether the error is equal to or less than the threshold value or whether the learning step has been advanced a predetermined number of times. If the error is equal to or less than the threshold value, it is determined that the learning has succeeded, the learned flag is set to 1, and the process proceeds to 14. If the learning step has been completed a predetermined number of times and the error is large, an inquiry is made as to whether or not to return to the input signal component determination unit 20. If the process does not return to the input signal component determination unit 20, the process proceeds to step 14 by setting the learned flag to 1 (success in learning) or 0 (failure in learning).
[0018]
The learning completion determination unit 14 for the corresponding region determines the corresponding region where the learning has failed based on the value of the learned flag, and if there is a failed region, returns to the colorizing region associating unit 12. If the learning is successful in all the corresponding areas, the colorization is performed.
[0019]
The colorization is performed by first obtaining the color information as an output for each pixel of the corresponding area of the monochrome image using the learned network in the corresponding area colorization unit 15. For example, the luminance, the average of the luminance of the neighboring pixels, and the standard deviation are given, and the YUV of the pixel in the corresponding area of the monochrome image is determined by obtaining the color difference signal UV.
[0020]
If there is a colorization target area other than the corresponding area in the monochrome image, the non-corresponding area colorization unit 16 performs colorization using the learned network group. For example, with respect to a pixel group on a corresponding region of a colorized monochrome image, an average and a standard deviation of the luminance of the pixel and the luminance of neighboring pixels are obtained, and the average value is set as a representative value of each corresponding region. . For the pixels other than the corresponding area, the average of the luminance of the pixel and the average and standard deviation of the luminance of the neighboring pixels are obtained, the corresponding area having the highest similarity is obtained by comparing with the representative value, and the learned network of the area is used. Colorize. In this way, the colorization target area in the monochrome image is colored. If the end processing unit 17 determines that the colorization has succeeded, the colorization process ends. Otherwise, the process returns to the reference color image group selection unit 11.
[0021]
【The invention's effect】
According to the present invention, it is possible to solve the drawback of the conventional method 3, that is, a problem that a noise-like color distribution is formed in an edge portion of an object or a region where a shape is complicated. Further, a color image having a natural gradation can be obtained.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a monochrome image color processing apparatus according to the present invention. FIG. 2 is a block diagram illustrating a configuration of a learned network generation unit for a corresponding area. FIG. Example in which regions are associated FIG. 4 Example in which reference color image and monochrome image are associated by switch FIG. 5 Example of extraction of pixels from reference color image FIG. 6 Part of neural network for one pixel [Explanation of symbols]
10 Non-colored area determination section 11 Reference color image group selection section 12 Colorized area association section 13 Trained network generation section for corresponding area 14 Learning end determination section for corresponding area 15 Colorization section for corresponding area 16 Non-corresponding area Coloring unit 17 End processing unit 20 Input signal component determination unit 21 Output signal component determination unit 22 Input signal generation unit 23 Teacher signal generation unit 24 Learning unit 30 using neural network 30 Reference color image 31 Monochrome image 40 to be colorized Reference color Image 41 Reference color image 42 Monochrome image to be colored

Claims (7)

ニューラルネットワークを用いてモノクロ画像をカラー化する方法であって、単一又は複数のモノクロ画像をカラー化する際に、カラー化されるモノクロ画像の一部分又は全領域を、単一又は複数の参照カラー画像の一部分又は全領域と対応させ、参照カラー画像の対応領域に対してモノクロ画像の画像成分に対応する輝度等の画像成分及び画像成分の統計量等と色情報の関係を学習する方法。A method of colorizing a monochrome image using a neural network, wherein when a single or a plurality of monochrome images are colored, a part or the whole area of the monochrome image to be colored is replaced with a single or a plurality of reference colors. A method of learning the relationship between color information and image components such as luminance corresponding to the image components of a monochrome image, the statistics of the image components, and the like with respect to the corresponding region of the reference color image, by associating them with a part or the entire region of the image. モノクロ画像の直像成分及び画像成分の統計量等を入力信号として前記学習結果を用いてモノクロ画像の一部分又は全領域をカラー化する方法。A method of colorizing a part or the whole area of a monochrome image using the learning result as an input signal of a direct image component of the monochrome image and a statistic of the image component or the like. 複数の対応領域がある場合、各々の領域に対して前記学習を行い、学習済みネットワークを作り、各々の学習結果を用いて該当領域をカラー化する方法。When there are a plurality of corresponding areas, a method in which the learning is performed on each area, a learned network is created, and the corresponding area is colored using each learning result. カラー化の対象であるが参照カラー画像とは対応関係のないモノクロ画像の領域に対しては前記学習済みネットワーク群を利用してカラー化し、請求項3に記載の方法でカラー化された対応領域と合わせてモノクロ画像の一部分又は全領域をカラー化する方法。4. A region of a monochrome image which is a target of colorization but has no correspondence with the reference color image is colorized using the learned network group, and the corresponding region colorized by the method according to claim 3. To colorize a part or the whole area of a monochrome image in combination with 前記学習において、参照カラー画像におけるモノクロ画像に対応付けられた画像領域中の適当に抽出された複数の画素の輝度とその近傍の画素の輝度の平均や標準偏差を入力信号とし、色情報を出力信号とし、これらを教師信号として学習させる場合の所定の回数繰返す学習ステップと、その時点の学習結果にもとづいてモノクロ画像をカラー化する方法。In the learning, the luminance of a plurality of appropriately extracted pixels in the image area corresponding to the monochrome image in the reference color image and the average or standard deviation of the luminance of pixels in the vicinity thereof are used as input signals, and color information is output. A learning step of repeating a predetermined number of times as signals and learning them as teacher signals, and a method of colorizing a monochrome image based on a learning result at that time. 請求項1から5までに記載した方法をコンピュータに実行させるモノクロ画像のカラー化プログラム。A program for causing a computer to execute the method according to claim 1. 請求項1から5までに記載した方法をコンピュータに実行させるモノクロ画像のカラー化プログラムを記録した記録媒体。A recording medium recording a monochrome image colorization program for causing a computer to execute the method according to claim 1.
JP2003164364A 2003-05-07 2003-05-07 Technique, device, and program of colorization of monochromatic image Pending JP2004334814A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003164364A JP2004334814A (en) 2003-05-07 2003-05-07 Technique, device, and program of colorization of monochromatic image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003164364A JP2004334814A (en) 2003-05-07 2003-05-07 Technique, device, and program of colorization of monochromatic image

Publications (1)

Publication Number Publication Date
JP2004334814A true JP2004334814A (en) 2004-11-25

Family

ID=33508789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003164364A Pending JP2004334814A (en) 2003-05-07 2003-05-07 Technique, device, and program of colorization of monochromatic image

Country Status (1)

Country Link
JP (1) JP2004334814A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005357A (en) * 2016-06-29 2018-01-11 株式会社東芝 Information processor and information processing method
KR101958725B1 (en) * 2017-12-18 2019-07-02 건국대학교 산학협력단 METHOD and apparatus for mapping IMAGE color USING MARS
WO2019131945A1 (en) * 2017-12-27 2019-07-04 キューピー株式会社 Food inspection device, food inspection method, and learning method for food reconstruction neural network of food inspection device
JP2019117559A (en) * 2017-12-27 2019-07-18 日本放送協会 Color information estimation model generating device, moving image colorization device, and programs for the same
JP2019117558A (en) * 2017-12-27 2019-07-18 日本放送協会 Color information estimation model generating device, image colorization device and programs for the same
JP2019133303A (en) * 2018-01-30 2019-08-08 株式会社Preferred Networks Information processor and information processing program and information processing method
JPWO2018203374A1 (en) * 2017-05-01 2020-05-28 株式会社Preferred Networks Line drawing automatic coloring program, line drawing automatic coloring device and program for graphical user interface
CN112164017A (en) * 2020-09-27 2021-01-01 中国兵器工业集团第二一四研究所苏州研发中心 Deep learning-based polarization colorization method
US11386587B2 (en) 2017-09-20 2022-07-12 Preferred Networks, Inc. Automatic coloring of line drawing
JP2023039991A (en) * 2019-02-08 2023-03-22 キヤノンメディカルシステムズ株式会社 Medical processing device, x-ray ct system, and processing program
JP7245577B1 (en) * 2022-06-23 2023-03-24 Rightly株式会社 Computer system, three-dimensional intraoral data coloring method and program

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005357A (en) * 2016-06-29 2018-01-11 株式会社東芝 Information processor and information processing method
JPWO2018203374A1 (en) * 2017-05-01 2020-05-28 株式会社Preferred Networks Line drawing automatic coloring program, line drawing automatic coloring device and program for graphical user interface
JP7014782B2 (en) 2017-05-01 2022-02-01 株式会社Preferred Networks Automatic coloring method, automatic coloring system and automatic coloring device
US11386587B2 (en) 2017-09-20 2022-07-12 Preferred Networks, Inc. Automatic coloring of line drawing
KR101958725B1 (en) * 2017-12-18 2019-07-02 건국대학교 산학협력단 METHOD and apparatus for mapping IMAGE color USING MARS
JP6990580B2 (en) 2017-12-27 2022-01-12 日本放送協会 Color information estimation model generator, moving image colorizer and their programs
JP2019117558A (en) * 2017-12-27 2019-07-18 日本放送協会 Color information estimation model generating device, image colorization device and programs for the same
JP2019117559A (en) * 2017-12-27 2019-07-18 日本放送協会 Color information estimation model generating device, moving image colorization device, and programs for the same
WO2019131945A1 (en) * 2017-12-27 2019-07-04 キューピー株式会社 Food inspection device, food inspection method, and learning method for food reconstruction neural network of food inspection device
JP2019133303A (en) * 2018-01-30 2019-08-08 株式会社Preferred Networks Information processor and information processing program and information processing method
US11288845B2 (en) 2018-01-30 2022-03-29 Preferred Networks, Inc. Information processing apparatus for coloring an image, an information processing program for coloring an image, and an information processing method for coloring an image
JP2023039991A (en) * 2019-02-08 2023-03-22 キヤノンメディカルシステムズ株式会社 Medical processing device, x-ray ct system, and processing program
JP7348376B2 (en) 2019-02-08 2023-09-20 キヤノンメディカルシステムズ株式会社 Medical processing equipment, X-ray CT system and processing program
CN112164017A (en) * 2020-09-27 2021-01-01 中国兵器工业集团第二一四研究所苏州研发中心 Deep learning-based polarization colorization method
CN112164017B (en) * 2020-09-27 2023-11-17 中国兵器工业集团第二一四研究所苏州研发中心 Polarization colorization method based on deep learning
JP7245577B1 (en) * 2022-06-23 2023-03-24 Rightly株式会社 Computer system, three-dimensional intraoral data coloring method and program
WO2023248422A1 (en) * 2022-06-23 2023-12-28 Rightly株式会社 Computer system, three-dimensional oral cavity data coloring method, and program

Similar Documents

Publication Publication Date Title
US11055828B2 (en) Video inpainting with deep internal learning
Pan et al. Blind predicting similar quality map for image quality assessment
Alilou et al. Application of GRNN neural network in non-texture image inpainting and restoration
Huang et al. Image recolorization for the colorblind
US7675652B2 (en) Correcting eye color in a digital image
JP2004334814A (en) Technique, device, and program of colorization of monochromatic image
CN101901480A (en) Device and method for processing image data
WO2002013177A1 (en) Method and apparatus for digital image segmentation using an iterative method
WO2005104662A2 (en) Colorization method and apparatus
CN112884669B (en) Image restoration method based on multi-scale content attention mechanism, storage medium and terminal
Wang et al. Hazy image decolorization with color contrast restoration
CN110363720A (en) A kind of color enhancement method, apparatus, equipment and the storage medium of image
CN111179196A (en) Multi-resolution depth network image highlight removing method based on divide-and-conquer
Salmona et al. Deoldify: A review and implementation of an automatic colorization method
CN111415299A (en) High-resolution image style migration method
CN112954355B (en) Image frame processing method and device
CN115018729B (en) Content-oriented white box image enhancement method
US20210374916A1 (en) Storage medium storing program, image processing apparatus, and training method of machine learning model
Pahal et al. Image colorization with deep convolutional neural networks
Cotogni et al. Select & enhance: Masked-based image enhancement through tree-search theory and deep reinforcement learning
Śluzek et al. Automatic colorization of digital movies using decolorization models and SSIM index
JP3830598B2 (en) Color correction method
Zhou et al. Saliency preserving decolorization
JP4036442B2 (en) Image edge extraction device
KR102689127B1 (en) Image preprocessing apparatus for increasing or decreasing noise level of actual noise in an image