JP7351358B2 - 画像処理システム、画像処理方法および画像処理プログラム - Google Patents

画像処理システム、画像処理方法および画像処理プログラム Download PDF

Info

Publication number
JP7351358B2
JP7351358B2 JP2021577792A JP2021577792A JP7351358B2 JP 7351358 B2 JP7351358 B2 JP 7351358B2 JP 2021577792 A JP2021577792 A JP 2021577792A JP 2021577792 A JP2021577792 A JP 2021577792A JP 7351358 B2 JP7351358 B2 JP 7351358B2
Authority
JP
Japan
Prior art keywords
color
hint
image
unit
target portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021577792A
Other languages
English (en)
Other versions
JPWO2021161453A1 (ja
JPWO2021161453A5 (ja
Inventor
貴裕 戸泉
正人 塚田
知里 舟山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021161453A1 publication Critical patent/JPWO2021161453A1/ja
Publication of JPWO2021161453A5 publication Critical patent/JPWO2021161453A5/ja
Application granted granted Critical
Publication of JP7351358B2 publication Critical patent/JP7351358B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/465Conversion of monochrome to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/02Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
    • G09G5/06Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed using colour palettes, e.g. look-up tables

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Description

本開示は、モノクロ画像をカラー化する画像処理システム、画像処理方法および非一時的なコンピュータ可読媒体に関する。
ユーザが汎用のカラーパレットを用いて指定した色(色ヒント)に基づいて、学習済の予測モデルによりモノクロ画像をカラー化画像に変換する画像処理システムが知られている(非特許文献1参照)。また特許文献1には、モノクロ画像に含まれる被写体の分類項目と被写体の好ましい色とを色データベースに予め関連付けて記憶しておき、ユーザが分類項目を入力したことに応じて配色する色を決定する方法が開示されている。
特開平4-248684号公報
Richard Zhang, Jun-Yan Zhu, "Real-Time User-Guided Image Colorization with Learned Deep Priors.", ACM Transactions on Graphics, 2017年5月8日提出
しかし上述した画像処理システムにおいては、ユーザが汎用のカラーパレットから被写体に合った好ましい色ヒントを選択するために、指定および確認操作を何度も行う必要が生じ、時間と手間がかかるという問題点がある。
また上述した特許文献1に記載の方法においては、被写体の分類項目に対して予め定められた色を配色する色として決定するだけであるため、ユーザの指定した色に応じた色の調整を行うことができない。したがって、当該色を色ヒントとして用いてモノクロ画像をカラー化しても、色の再現精度が十分でないという問題点がある。
本開示の目的は、上述した課題を鑑み、モノクロ画像のカラー化における色の再現精度をより容易に向上させることができる画像処理システム、画像処理方法および非一時的なコンピュータ可読媒体を提供することにある。
本開示の一態様における画像処理システムは、対象部分を含むモノクロ画像を取得する画像取得部を備える。また画像処理システムは、前記対象部分の分類項目と前記対象部分の色を示唆する第1の色ヒントとを取得するヒント取得部を備える。また画像処理システムは、取得した前記分類項目に基づいて、前記第1の色ヒントを、前記対象部分の色を示唆する第2の色ヒントに変換するヒント変換部を備える。また画像処理システムは、機械学習により学習した予測モデルを用いて、前記モノクロ画像および前記対象部分の前記第2の色ヒントから、前記モノクロ画像に対応するカラー化画像を生成するカラー化生成部を備える。
本開示の一態様における画像処理方法は、対象部分を含むモノクロ画像を取得する段階を備える。また画像処理方法は、前記対象部分の分類項目と前記対象部分の色を示唆する第1の色ヒントとを取得する段階を備える。また画像処理方法は、取得した前記分類項目に基づいて、前記第1の色ヒントを、前記対象部分の色を示唆する第2の色ヒントに変換する段階を備える。また画像処理方法は、機械学習により学習した予測モデルを用いて、前記モノクロ画像および前記対象部分の前記第2の色ヒントから、前記モノクロ画像に対応するカラー化画像を生成する段階を備える。
本開示の一態様における非一時的なコンピュータ可読媒体は、対象部分を含むモノクロ画像を取得する画像取得機能と、前記対象部分の分類項目と前記対象部分の色を示唆する第1の色ヒントとを取得するヒント取得機能と、取得した前記分類項目に基づいて、前記第1の色ヒントを、前記対象部分の色を示唆する第2の色ヒントに変換するヒント変換機能と、機械学習により学習した予測モデルを用いて、前記モノクロ画像および前記対象部分の前記第2の色ヒントから、前記モノクロ画像に対応するカラー化画像を生成するカラー化生成機能とをコンピュータに実現させるための画像処理プログラムが格納されたものである。
本開示により、モノクロ画像のカラー化における色の再現精度をより容易に向上させることができる画像処理システム、画像処理方法および非一時的なコンピュータ可読媒体を提供することができる。
実施形態の概要にかかる装置の構成を示すブロック図である。 実施形態1にかかる装置の処理の概要である。 実施形態1にかかる装置の概略構成図である。 実施形態1にかかる装置のユーザインターフェイスの一例を示す図である。 実施形態1にかかる装置の処理を示すフローチャートである。 実施形態1にかかるカラー化生成部のカラー化画像生成処理の一例を説明するための図である。 実施形態1にかかる第1の変換テーブルのデータ構造の一例を示す図である。 実施形態1にかかる第1の変換テーブルを用いた色ヒント変換処理を示すフローチャートである。 実施形態1にかかる第2の変換テーブルのデータ構造の一例を示す図である。 実施形態1にかかる第2の変換テーブルを用いた色ヒント変換処理を示すフローチャートである。 実施形態1にかかる第3の変換テーブルのデータ構造の一例を示す図である。 実施形態1にかかる第3の変換テーブルを用いた色ヒント変換処理を示すフローチャートである。 実施形態2にかかる装置の概略構成図である。 実施形態2にかかる装置の処理を示すフローチャートである。 実施形態2にかかる色ヒント調整処理を説明するための概念図である。 実施形態3にかかる装置の概略構成図である。 実施形態3にかかる装置の処理を示すフローチャートである。 実施形態3にかかる装置のユーザインターフェイスの一例を示す図である。
以下では、具体的な実施形態について、図面を参照しながら詳細に説明する。各図面において、同一又は対応する要素には同一の符号が付されており、説明の明確化のため、必要に応じて重複説明は省略される。なお、本明細書で色は、具体的には1976年に国際照明委員会(CIE)によって規格化されたCIE L色空間を用いて定義される。しかしこれに限らず、RGB、HSVおよびYCrCb等の他の任意の色空間を用いて定義されてもよい。以下L、a、およびbを、単にL、aおよびbと表記する。
まず実施形態を詳細に説明する前に、その概要について簡単に説明する。図1は、実施形態の概要にかかる画像処理システム(ここでは、単に装置10と呼ぶ)の構成を示すブロック図である。装置10は、画像取得部102と、ヒント取得部105と、ヒント変換部106と、カラー化生成部120とを備える。
画像取得部102は、対象部分を含む被写体を有するモノクロ画像を取得する。
ヒント取得部105は、対象部分の分類項目と対象部分の色を示唆する第1の色ヒントとを取得する。
ヒント変換部106は、取得した分類項目に基づいて、第1の色ヒントを、対象部分の色を示唆する第2の色ヒントに変換する。
カラー化生成部120は、機械学習により学習した予測モデルを用いて、モノクロ画像および対象部分の第2の色ヒントから、モノクロ画像に対応するカラー化画像を生成する。
このような構成により、対象部分の分類項目に基づいて、指定された色ヒントの色調整を行い、調整後の色ヒントを用いてカラー化を行うことができる。したがってモノクロ画像のカラー化における色の再現精度をより容易に向上させることができる。
(実施形態1)
次に図2~9を用いて、本開示の実施形態1について説明する。図2は、実施形態1にかかる装置20の処理の概要である。装置20は、モノクロ画像Mおよびモノクロ画像Mに対応する色ヒントHから、予測モデルを用いてモノクロ画像Mを着色し、カラー化画像Cを生成するコンピュータ等である。
モノクロ画像Mは、背景色および背景色以外の単一色を用いて描画される画像である。モノクロ画像Mは、画素数に応じた数の画素を有する。モノクロ画像Mの各画素は、背景色と単一色との間の濃淡の段階を示す画素値を含む。モノクロ画像Mの画素値は、色空間の任意の次元の値を含む。本実施形態1でモノクロ画像Mの画素値は、モノクロ画像Mの輝度値、たとえばL値を含む。
モノクロ画像Mは、1または複数の被写体を含む写真画像である。被写体は、一例として人物、空、夕日、木および草等である。ここで被写体は、1または複数の対象部分を含む。対象部分は、被写体のうち色が類似する部分である。対象部分は、画素値の差が所定範囲内の複数の隣接する画素を含む画素領域であってよい。対象部分は一例として、人物の肌、人物の目、人物の服、空、夕日、木の幹、木の葉および草等である。本実施形態1でモノクロ画像Mは、背景色として白色と、単一色として黒色とを用いたグレースケール画像であってよい。しかしこれに限らず、モノクロ画像Mは、単一色として黒以外の色を用いた画像であってもよい。また、モノクロ画像Mは、単一色の網点画像に、ガウシアンフィルタおよびメディアンフィルタ等を用いたぼかし処理が施されたものであってもよい。
カラー化画像Cは、モノクロ画像Mに対応する、画素数に応じた数の画素を有する。カラー化画像Cの各画素は、画素値に加えて補色次元の値を含む。補色次元の値は、たとえばa値およびb値であってよい。
予測モデルは、機械学習により学習した、モノクロ画像Mの画素の色を予測する予測モデルである。予測モデルは、たとえば入力層、中間層および出力層を含むニューラルネットワークを有する。一例としてニューラルネットワークは、畳み込みニューラルネットワーク(Convolutional neural network,CNN)を含む。なおニューラルネットワークは、入力層の次元を圧縮するオートエンコーダ、特に条件付きオートエンコーダを含んでよい。本実施形態1では予測モデルはエンドツーエンドの深層学習により学習したモデルであるが、これに限らない。
色ヒントHは、対象部分の色を示唆する色の指標である。本実施形態1で色ヒントHは、色空間を用いて定義される色である。色ヒントHは、予測モデルに付加される条件である。色ヒントHは、特にニューラルネットワークに含まれるオートエンコーダに付加される条件であってよい。色ヒントHは、モノクロ画像Mの画素の色の予測精度を向上させる。
ここで色ヒントHは、写真画像として「好ましい色」、特に人間の知覚に合った色であることが好ましい。たとえば「好ましい色」は、太陽光および白色光源等の所定の光源下での反射率特性を有するものであってよい。また「好ましい色」は、人間の知覚に基づいて経験的に定められた色であってもよい。
また「好ましい色」は、所定の光源下での物体の色と、所定の表示装置に表示される物体の色との間の色差が小さい(好ましくは、最小の)場合の、後者の色であってもよい。たとえば「好ましい色」は、以下のように求めることもできる。まず物体の色を、第1のイメージセンサで検出し、当該検出した色を所定の表示装置に表示させ、表示された色をさらに第2のイメージセンサで検出する。このとき、第1のイメージセンサの検出色と、第2のイメージセンサの検出色との間の色差が小さくなる(好ましくは、最小となる)場合に、第2のイメージセンサの検出色を、その物体の「好ましい色」とすることができる。
色ヒントHをこのような「好ましい色」とすることにより、モノクロ画像のカラー化における色の再現精度を向上させることができる。
図3は、実施形態1にかかる装置20の概略構成図である。装置20は、取得部200と、記憶部210と、カラー化生成部220と、出力部240と、モデル生成部260とを備える。
取得部200は、予測モデルの入力データに関連する各種データを取得する。取得部200は、取得したデータをカラー化生成部220に出力する。これに加えて取得部200は、取得したデータを記憶部210に格納してもよい。ここで取得部200は、画像取得部202と、ヒント決定部204とを有する。
画像取得部202は、予測モデルの入力データの1つであるモノクロ画像Mを取得する。画像取得部202は、学習データとしてモノクロ画像Mおよびこれに対応するカラー化画像Cを取得してもよい。
ヒント決定部204は、モノクロ画像Mの被写体の対象部分の第1の色ヒントを取得し、第2の色ヒントを決定する。ここで第1の色ヒントは、ユーザが被写体の対象部分の色を示唆する色として指定した色ヒントである。そして第2の色ヒントは、第1の色ヒントに応じた「好ましい色」であり、予測モデルに条件として入力される色ヒントである。ヒント決定部204は、決定した第2の色ヒントをカラー化生成部220に出力する。ここでヒント決定部204は、ヒント取得部205と、ヒント変換部206とを含む。
ヒント取得部205は、モノクロ画像Mの対象位置情報Pと、対象部分の分類項目と、第1の色ヒントとを取得する。ここで分類項目とは、対象部分の種別を示す情報であり、一例として、「人物の肌」、「人物の目」、「空」、「夕日」、「木の幹」、「木の葉」および「草」等である。また対象位置情報Pとは、対象部分を構成する画素のうち少なくとも一部の画素の位置情報であってよい。
ヒント変換部206は、ヒント取得部205が取得した分類項目に基づいて、第1の色ヒントを第2の色ヒントに変換する。ヒント変換部206は、記憶部210に格納される変換テーブルを用いて第1の色ヒントを第2の色ヒントに変換してよい。
記憶部210は、色ヒント変換処理および予測モデルの学習処理に関連する各種データ等を記憶する記憶媒体である。記憶部210は、変換テーブルと、学習データベース216とを有する。
変換テーブルは、対象部分の分類項目と、色ヒント変換処理に関連するパラメータ等とを関連付けて記憶するテーブルである。詳細は後述する。
学習データベース216は、予測モデルの学習データ等を記憶する。
カラー化生成部220は、予測モデルを用いて、モノクロ画像Mおよび対象部分の色ヒントH(特に、第2の色ヒント)から、モノクロ画像Mに対応するカラー化画像Cを生成する。なおカラー化生成部220は、後述するモデル生成部260のモデル最適化部264から出力される予測モデルを用いる。そしてカラー化生成部220は、カラー化画像Cを出力部240に出力する。
出力部240は、カラー化生成部220によって生成されたカラー化画像Cを所定の出力形式により出力する。
モデル生成部260は、学習データを用いた機械学習によって、予測モデルを生成する。モデル生成部260は、学習処理部262と、モデル最適化部264とを有する。
学習処理部262は、予測モデルの学習データを管理する。学習処理部262は、学習用のモノクロ画像M、カラー化画像Cおよび色ヒントHを含むデータセット、すなわち学習データを取得し、学習データベース216に格納する。なお学習データベース216に格納される学習データは、学習処理部262が取得部200から取得したデータであってもよく、学習処理部262が任意の通信手段(不図示)を介して他の装置から受信したデータであってもよい。そして学習処理部262は、学習データベース216に格納された学習データをモデル最適化部264に出力する。
モデル最適化部264は、学習データを用いて機械学習により予測モデルを最適化する。予測モデル最適化部184は、最適化した予測モデルをカラー化生成部220に出力する。
図4は、実施形態1にかかる装置20のユーザインターフェイスの一例を示す図である。たとえばユーザインターフェイスは、モノクロ画像表示部1と、カラー化画像表示部2と、カラーパレット3と、分類項目入力部4と、色空間表示部5と、ヒント表示部6と、画像入力部7と、画像出力部8とを備える。
モノクロ画像表示部1は、取得したモノクロ画像Mを表示するとともに、当該モノクロ画像Mの対象部分の対象位置情報Pに対応する画素に第1の色ヒントまたは第2の色ヒントが示す色を重畳的に表示する。なおモノクロ画像表示部1は、ポインティングデバイス等を介してユーザから対象位置情報Pの入力を受け付ける。モノクロ画像表示部1は、ヒント決定部204に含まれ、ヒント取得部205に接続されてよい。
カラー化画像表示部2は、生成されたカラー化画像Cの表示を行う。カラー化画像表示部2は、出力部240に含まれる。
カラーパレット3は、複数の色を保持する汎用のカラーパレットであり、ユーザから色の指定を受け付ける。指定された色は、第1の色ヒントである。カラーパレット3は、ヒント決定部204のヒント取得部205に含まれる。
分類項目入力部4は、対象部分の分類項目のリストを表示し、ユーザから分類項目の入力を受け付ける。分類項目入力部4は、ヒント決定部204に含まれ、ヒント取得部205に接続されてよい。
色空間表示部5は、現時点で選択されている色ヒント(ユーザから指定を受け付けた第1の色ヒントまたは変換後の第2の色ヒント)を色空間で表示する。色空間表示部5は、ポインティングデバイス等を介してユーザから色の指定(つまり、第1の色ヒントの入力)を受け付けてもよい。
ヒント表示部6は、現時点で選択されている色ヒントを色で表示する。
画像入力部7は、画像取得部202に含まれ、ユーザからのモノクロ画像Mの入力を受け付ける。
画像出力部8は、出力部240に含まれ、カラー化画像Cを所定のデータ形式で外部に出力する。
次に実施形態1にかかる装置20の処理について、図4を参照しながら図5を用いて説明する。図5は、実施形態1にかかる装置20の処理を示すフローチャートである。
まずS10において、取得部200の画像取得部202は、カラー化に係るモノクロ画像Mを取得する。たとえば画像取得部202は、ユーザが図4に示す画像入力部7を選択し、所定のモノクロ画像Mを転送することに応じて、上記処理を行う。そして画像取得部202は、取得したモノクロ画像Mをカラー化生成部220に出力する。
次にS11において、ヒント取得部205は、対象部分の対象位置情報Pを取得したか否かを判定する。たとえばヒント取得部205は、ユーザが図4に示すモノクロ画像表示部1上の少なくとも一部の画素をポインティングデバイス等により指定したか否かを判定する。ヒント取得部205は、取得(指定)していれば(S11でY)、処理をS12に進め、そうでなければ(S11でN)、処理をS18に進める。
S12において、ヒント取得部205は、対象部分の第1の色ヒントを取得したか否かを判定する。たとえばヒント取得部205は、ユーザが図4に示すカラーパレット3に含まれる色または色空間表示部5に表示される色を指定したか否かを判定する。ヒント取得部205は、取得(指定)していれば(S12でY)、図4に示すようにモノクロ画像表示部1のモノクロ画像M上の、対象位置情報Pに対応する画素に第1の色ヒントが示す色を重畳的に表示させ、処理をS13に進める。ヒント取得部205は、そうでなければ(S12でN)、処理をS18に進める。
S13において、ヒント取得部205は、対象部分の分類項目を取得したか否かを判定する。たとえばヒント取得部205は、ユーザが分類項目入力部4に表示された分類項目を指定したか否かを判定する。ヒント取得部205は、取得(指定)していれば(S13でY)、処理をS14に進め、そうでなければ(S13でN)、第1の色ヒントをカラー化生成部220に出力し、処理をS15に進める。
S14において、ヒント変換部206は、記憶部210の変換テーブルを参照し、取得した分類項目に応じて、第1の色ヒントを第2の色ヒントに変換する。この色ヒント変換処理についての詳細は、後述する。ヒント変換部206は、カラー化生成部220に第2の色ヒントを出力する。またヒント変換部206は、図4に示すように、モノクロ画像表示部1のモノクロ画像M上の、対象位置情報Pに対応する画素に第1の色ヒントに代えて第2の色ヒントが示す色を重畳的に表示させる。
次にS15において、カラー化生成部220は、モデル最適化部264から予測モデルを取得する。
次にS16において、カラー化生成部220は、取得したモノクロ画像Mを入力データとし、色ヒントH(第1の色ヒントまたは第2の色ヒント)を条件として、予測モデルを用いてモノクロ画像Mに対応したカラー化画像Cを生成する。カラー化生成部220は、出力部240にカラー化画像Cを出力する。
S17において、出力部240はカラー化画像Cを出力する。たとえば出力部240は、図4に示すカラー化画像表示部2にカラー化画像Cを表示させる。また出力部240は、ユーザが図4に示す画像出力部8を選択したことに応じてカラー化画像Cを所定のデータ形式で出力する。そして出力部240は、処理を終了する。
S18において、ヒント取得部205は、S11において対象位置情報Pを取得していないことに応じて、またはS12において対象部分の第1の色ヒントを取得していないことに応じて、エラーを示す信号を出力する。そしてヒント取得部205は、処理を終了する。
このように本実施形態1によれば、ヒント変換部206が分類項目に基づいて第1の色ヒントを第2の色ヒントに変換するため、指定された色ヒントの色調整を分類項目に基づいて行い、当該色調整後の色ヒントを用いてカラー化を行うことができる。これにより、モノクロ画像のカラー化における色の再現精度をより容易に向上させることができる。
図6は、実施形態1にかかるカラー化生成部220のカラー化画像生成処理(つまり、図5のS16に示す処理)の一例を説明するための図である。
まずカラー化生成部220は、モノクロ画像M、つまりモノクロ画像Mの輝度次元(L)に対応するマトリクス図M(L)と色ヒントHの輝度および補色次元(a,b)のそれぞれに対応するマトリクス図H(L),H(a),H(b)とを取得する。カラー化生成部220は、これらを予測モデルの入力層および条件に入力する。そして予測モデルは、出力層においてカラー化画像Cの補色次元に対応するマトリクス図C(a),C(b)を出力する。カラー化生成部220は、出力されたC(a),C(b)と、M(L)とを合成し、カラー化画像Cを生成する。
このようにしてカラー化生成部220は、モノクロ画像Mおよび色ヒントHからカラー化画像Cを生成することができる。
次に、ヒント変換部206による変換テーブルを用いた色ヒント変換処理(つまり、図5のS14に示す処理)について説明する。変換テーブルは、第1の変換テーブル、第2の変換テーブルおよび第3の変換テーブルのうち少なくとも1つを含んでよく、ヒント変換部206は、記憶部210に格納される変換テーブルの種類に応じた変換処理を行ってよい。
図7Aは、実施形態1にかかる第1の変換テーブルのデータ構造の一例を示す図であり、図7Bは、第1の変換テーブルを用いた色ヒント変換処理を示すフローチャートである。
第1の変換テーブルは、対象部分の分類項目と、複数の第2の色ヒントの候補とを関連付けて記憶する。図7Aに示すように、第1の変換テーブルは、対象部分の分類項目と、分類項目に対応する複数の第2の色ヒントの候補の色空間座標とを含んでよい。色空間座標は、色空間の次元に対応した成分(つまり画素値)を含み、本図では輝度次元(L)および補色次元にそれぞれ対応する3つの成分L,a,bを含む。ここで第2の色ヒントの候補は、分類項目に応じて、上述の「好ましい色」として予め定められた色であってよい。
図7Bに示すように、まずS20においてヒント変換部206は、第1の変換テーブルを用いて、取得した分類項目に応じた複数の第2の色ヒントの候補の色空間座標を取得する。
次にS22において、ヒント変換部206は、第2の色ヒントの候補の各々と第1の色ヒントとの間の色差、すなわち第2の色ヒントの候補の各々の色空間座標と、第1の色ヒントの色空間座標との間の距離を算出する。ここで距離は、ユークリッド距離、マンハッタン距離,チェビシェフ距離またはその他の任意の距離であってよい。
次にS24において、ヒント変換部206は、第2の色ヒントの候補のうち、第1の色ヒントとの間の色差が最も小さいものを選択し、第2の色ヒントを決定する。
このようにヒント変換部206は、第1の変換テーブルを用いることで、分類項目ごとに予め定められた好ましい色のうち、ユーザが指定した色(第1の色ヒント)に最も近い色を第2の色ヒントとして容易に決定することができる。
図8Aは、実施形態1にかかる第2の変換テーブルのデータ構造の一例を示す図であり、図8Bは、第2の変換テーブルを用いた色ヒント変換処理を示すフローチャートである。
第2の変換テーブルは、第1の色ヒントと、対象部分の分類項目と、第2の色ヒントとを関連付けて記憶する。図8Aに示すように、第2の変換テーブルは、分類項目ごとに、第1の色ヒントの色空間座標の範囲に応じて割り当てられた色空間座標を第2の色ヒントとして記憶する。ここで第2の色ヒントは、分類項目ごとに、第1の色ヒントの色空間に対応して上述の「好ましい色」として予め定められた色であってよい。
図8Bに示すように、まずS30においてヒント変換部206は、第2の変換テーブルを参照する。
次にS32において、ヒント変換部206は、取得した前記分類項目および第1の色ヒントの色空間座標の成分に対応する範囲に関連付けられた第2の色ヒントを取得する。
このようにヒント変換部206は、第2の変換テーブルを用いることで、分類項目ごとに、ユーザが指定した色に対応して予め定められた「好ましい色」を第2の色ヒントとして容易に決定することができる。
図9Aは、実施形態1にかかる第3の変換テーブルのデータ構造の一例を示す図であり、図9Bは、第3の変換テーブルを用いた色ヒント変換処理を示すフローチャートである。
図9Aに示すように、第3の変換テーブルは、対象部分の分類項目に応じた、第1の色ヒントから第2の色ヒントに変換する変換パラメータを記憶する。
図9Bに示すように、まずS40においてヒント変換部206は、第3の変換テーブルに記憶される、取得した分類項目に応じた変換パラメータを取得する。
次にS42に示すように、ヒント変換部206は、変換パラメータを用いて第1の色ヒントから第2の色ヒントを算出する。
このようにヒント変換部206は、第3の変換テーブルを用いることで、分類項目ごとに予め定められた変換パラメータに基づいた演算処理をユーザが指定した色に対して行い、出力結果を第2の色ヒントとして容易に決定することができる。
なお、本実施形態1では学習データベース216は、装置20の記憶部210に含まれるが、これに代えて、通信可能に接続された他の装置(不図示)等に含まれていてもよい。このとき学習処理部262は、任意の通信手段(不図示)を介して当該他の装置から学習データを取得し、モデル最適化部264に出力してよい。
(実施形態2)
次に図10~12を用いて、本開示の実施形態2について説明する。実施形態2は、変換後の第2の色ヒントをさらに調整することに特徴を有する。
図10は、実施形態2にかかる装置30の概略構成図である。装置30は、実施形態1の装置20とほぼ同様の構成および機能を有する。ただし装置30は、取得部200に代えて、取得部300を備える点で装置20と相違する。
取得部300は、取得部200とほぼ同様の構成および機能を有するが、ヒント決定部204に代えてヒント決定部304を有する。
ヒント決定部304は、ヒント決定部204の構成に加えて、ヒント調整部307を含む。
ヒント調整部307は、ヒント変換部206から出力された、変換された第2の色ヒントの色空間座標を、第1の色ヒントの色空間座標との間の距離に基づいて調整する。
図11は、実施形態2にかかる装置30の処理を示すフローチャートである。図11に示すステップは、実施形態1の図5に示すステップに加えて、S50を有する。なお図5に示すステップと同様のステップについては、同一の記号を付して説明を省略する。
S50において、ヒント決定部304のヒント調整部307は、S14においてヒント変換部206から第2の色ヒントが出力されたことに応じて、色ヒント調整処理を行う。そしてヒント調整部307は、カラー化生成部220に第2の色ヒントを出力し、処理をS15に進める。
なお、S16においてカラー化生成部220は、調整された第2の色ヒントに基づいてモノクロ画像に対応するカラー化画像を生成する。
図12は、実施形態2にかかる色ヒント調整処理(つまり、図11のS50に示す処理)を説明するための概念図である。本図に示す点vは、S12においてヒント取得部205が取得した(つまり、ユーザが指定した)第1の色ヒントの色空間座標である。また点pは、S14においてヒント変換部206が変換した第2の色ヒント(すなわち、「好ましい色」)の色空間座標である。また点Xは、S50においてヒント調整部307が調整した第2の色ヒントの色空間座標である。
ヒント調整部307は、点pと点vとを結ぶ直線上に点Xを設定することで、変換後の第2の色ヒントの色を調整する。これによりヒント調整部307は結果的に、第2の色ヒントを、第1の色ヒントから「好ましい色」に所定量近づける、または遠ざける加工処理を行うことが可能となる。
たとえば本図は、ヒント調整部307が色空間で点vと点pとの間に点Xを設定する場合、すなわち第2の色ヒントを「好ましい色」に所定量近づける場合の一例を示す。たとえば点vと点pとの間の距離をlとし、点v、pおよびXの色空間座標を、位置ベクトルを用いてそれぞれv、p、Xとする。そして「好ましい色」にどの程度近づけるかを示すパラメータをt(-1≦t≦1)とする。本図では、t>0であり、X=l・t・v+l・(1-t)・pが得られる。
またヒント調整部307は、t<0とすれば、色空間で点vと点pとを結ぶ直線上の、点vに対して点pと反対側の位置に点Xを設定することも可能である。すなわちヒント調整部307は、第2の色ヒントを「好ましい色」に所定量遠ざけることが可能である。
このように本実施形態2によれば、装置30は予め定められた「好ましい色」を基準としてユーザの好みのテイストでカラー化を実行することができる。
(実施形態3)
次に図13~15を用いて、本開示の実施形態3について説明する。実施形態3は、モノクロ画像Mの対象位置情報Pを自動取得することに特徴を有する。
図13は、実施形態3にかかる装置40の概略構成図である。装置40は、実施形態1の装置20とほぼ同様の構成および機能を有する。ただし装置40は、取得部200に代えて、取得部400を備える。
取得部400は、取得部200とほぼ同様の構成および機能を有するが、ヒント決定部204に代えてヒント決定部404を有する。
ヒント決定部404は、ヒント決定部204の構成に加えて、対象検出部406と、検出表示部408とを含む。
対象検出部406は、モノクロ画像Mから対象部分を自動で検出し、対象位置情報Pを取得する。たとえば対象検出部406は、被写体を検出し、被写体のうち色が類似すると推定される画素領域を対象部分として検出してよい。なお対象検出部406は、被写体に含まれる画素同士の画素値の差および画素の位置に基づいて、色が類似すると推定される画素領域を検出してよい。
そして対象検出部406は、検出された対象部分に基づいて対象部分の分類項目を推定する。対象検出部406は、推定した分類項目をヒント変換部206に出力する。
検出表示部408は、検出された対象部分を選択し、表示する。したがってユーザは、対象部分の対象位置情報Pを指定することなく、第1の色ヒントを指定することができる。なお検出表示部408は、対象部分に加えて、検出された被写体も表示してよい。
なお、ヒント取得部205は、表示された対象部分に対応するユーザからの第1の色ヒントの入力を受け付けてよい。
本実施形態3によれば、対象検出部406が対象位置情報Pを自動で検出するため、ユーザの対象位置情報Pの指定操作が省略され、利便性が向上する。また当該対象位置情報Pの自動検出に応じて、対象検出部406が対象部分の分類項目を推定するため、対象部分の分類項目を自動で取得することができる。これにより、ユーザの分類項目の指定操作が省略され、利便性がさらに向上する。
次に実施形態3にかかる装置40の処理について、図15を参照しながら図14を用いて説明する。図14は、実施形態3にかかる装置40の処理を示すフローチャートである。また図15は、実施形態3にかかる装置40のユーザインターフェイスの一例を示す図である。
図14に示すステップは、実施形態1の図5に示すステップのS11に代えて、S60~S64に示すステップを有する。なお図5に示すステップと同様のステップについては、同一の記号を付して説明を省略する。
S60において、対象検出部406は、S10において画像取得部202がカラー化に係るモノクロ画像Mを取得したことに応じて、モノクロ画像Mから被写体および被写体の対象部分を自動で検出することにより、対象位置情報Pを取得したか否かを判定する。
対象検出部406は、対象位置情報Pを取得していれば(S60でY)、処理をS62に進め、そうでなければ(S60でN)、処理をS61に進める。
S61において、ヒント取得部205は、図5のS11に示すステップと同様の処理を行い、対象位置情報Pを取得していれば(S11でY)、処理をS12に進め、そうでなければ(S11でN)、処理をS18に進める。
S62において、対象検出部406は、S60で対象位置情報Pを取得したことに応じて、検出した対象部分の分類項目を推定する。そして図15に示すように、分類項目入力部4上に推定した分類項目を表示する。
なお、S60およびS62に示すステップは、並行して実行されてよい。ここで対象検出部406は、機械学習により学習済の所定の物体認識モデルを用いて、被写体および対象部分を検出し、対象位置情報Pを取得し、当該対象部分の分類項目を推定してよい。所定の物体認識モデルは、画像から物体を検出し認識するニューラルネットワーク、特にCNNを含んでよい。
また被写体が人物等である場合は、対象検出部406は、当該所定の物体認識モデルを用いて被写体を検出し、骨格推定技術等を用いて、顔、腕および脚等の位置を推定してもよい。そして対象検出部406は、推定したこれらの位置を対象部分の対象位置情報Pとし、対象部分の分類項目を「人物の肌」と推定してもよい。これにより同一の分類項目の対象部分が互いに分離された状態で存在する場合にも、後続のS12においてユーザが第1のヒントを複数回指定することを回避でき、利便性が向上する。
なお本実施形態3で対象検出部406は、モノクロ画像Mから対象部分を、矩形枠を用いて認識し、対象位置情報Pおよび分類項目を取得する。しかしこれに代えて、対象検出部406は、領域分割(Semantic Segmentation)により、モノクロ画像Mの各領域部分がどの分類項目に属するかを推定することで対象位置情報Pの取得を行ってもよい。
S64において、検出表示部408は、モノクロ画像表示部1上に検出被写体Fおよび対象部分の対象位置情報Pに対応する画素を表示する。たとえば図15に示すように、モノクロ画像表示部1は、取得したモノクロ画像Mに、検出被写体Fを示す矩形枠および対象位置情報Pに対応する画素を重畳的に表示してよい。
なお、対象検出部406が領域分割を用いる場合は、検出した領域部分の輪郭を囲む枠等を検出被写体Fとしてモノクロ画像Mに対して重畳的に表示させてよい。そして検出表示部408は、処理をS12に進める。
なお検出表示部408は、モノクロ画像Mが複数の検出対象部分を含む場合、順番に検出対象部分の表示を行い、ヒント取得部205に対してユーザへ第1の色ヒントの入力を促すように要求してよい。
また図15に示すように、モノクロ画像Mが同一の分類項目を有する対象部分を複数含む場合には、検出表示部408は一度に当該複数の対象部分を選択し、モノクロ画像表示部1に表示させてよい。これにより、後続のS12においてユーザが第1の色ヒントを複数回指定することを回避することができ、利便性が向上する。
上述の実施形態ではコンピュータは、パーソナルコンピュータやワードプロセッサ等を含むコンピュータシステムで構成される。しかしこれに限らず、コンピュータは、LAN(ローカル・エリア・ネットワーク)のサーバ、コンピュータ(パソコン)通信のホスト、インターネット上に接続されたコンピュータシステム等によって構成されることも可能である。また、ネットワーク上の各機器に機能分散させ、ネットワーク全体でコンピュータを構成することも可能である。
なお上述の実施形態では、本発明をハードウェアの構成として説明したが、本発明は、これに限定されるものではない。本発明は、任意の機能(処理)、特に図2、7~9、11および14に示す処理を、CPU(Central Processing Unit)にコンピュータプログラムを実行させることにより実現することも可能である。
プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(random access memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
請求の範囲、明細書、および図面中において示した装置および方法における各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのではない限り、任意の順序で実現しうる。請求の範囲、明細書および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順序で実施することが必須であることを意味するものではない。
以上、実施形態を参照して本開示を説明したが、本開示は上記実施形態に限定されるものではない。本開示の構成や詳細には、本開示のスコープ内で当業者が理解し得る様々な変更をすることができる。
1 モノクロ画像表示部、2 カラー化画像表示部、3 カラーパレット、4 分類項目入力部、5 色空間表示部、6 ヒント表示部、7 画像入力部、8 画像出力部、10,20,30,40 装置、102 画像取得部、105,205 ヒント取得部、106,206 ヒント変換部、120,220 カラー化生成部、200,300,400 取得部、202 画像取得部、204 ヒント決定部、210 記憶部、216 学習データベース、240 出力部、260 モデル生成部、262 学習処理部、264 モデル最適化部、304,404 ヒント決定部、307 ヒント調整部、406 対象検出部、408 検出表示部、M モノクロ画像、C カラー化画像、H 色ヒント、P 対象位置情報、F 検出被写体

Claims (9)

  1. 対象部分を含むモノクロ画像を取得する画像取得部と、
    前記対象部分の分類項目と前記対象部分の色を示唆する第1の色ヒントとを取得するヒント取得部と、
    取得した前記分類項目に基づいて、前記第1の色ヒントを、前記対象部分の色を示唆する第2の色ヒントに変換するヒント変換部と、
    機械学習により学習した予測モデルを用いて、前記モノクロ画像および前記対象部分の前記第2の色ヒントから、前記モノクロ画像に対応するカラー化画像を生成するカラー化生成部と
    を備える画像処理システム。
  2. 分類項目と、複数の第2の色ヒントとを関連付けて記憶する第1の変換テーブルをさらに備え、
    前記ヒント変換部は、前記第1の変換テーブルを用いて、取得した前記分類項目に関連付けられた複数の第2の色ヒントのうち、前記第1の色ヒントとの間の色差が最も小さい第2の色ヒントを選択する、請求項1に記載の画像処理システム。
  3. 第1の色ヒントと、分類項目と、第2の色ヒントとを関連付けて記憶する第2の変換テーブルをさらに備え、
    前記ヒント変換部は、前記第2の変換テーブルを用いて、取得した前記分類項目および前記第1の色ヒントに関連付けられた前記第2の色ヒントを取得する、請求項1に記載の画像処理システム。
  4. 分類項目に応じた変換パラメータを記憶する第3の変換テーブルをさらに備え、
    前記ヒント変換部は、前記第3の変換テーブルに記憶される、取得した前記分類項目に応じた変換パラメータを用いて、前記第1の色ヒントを前記第2の色ヒントに変換する、請求項1に記載の画像処理システム。
  5. 変換された前記第2の色ヒントの色空間座標を、前記第1の色ヒントの色空間座標との間の距離に基づいて調整するヒント調整部をさらに備え、
    前記カラー化生成部は、調整された前記第2の色ヒントに基づいて前記モノクロ画像に対応するカラー化画像を生成する、請求項1から4のいずれか一項に記載の画像処理システム。
  6. 前記モノクロ画像から前記対象部分を検出する対象検出部と、
    検出された前記対象部分を表示する検出表示部と
    をさらに備え、
    前記ヒント取得部は、表示された前記対象部分の前記第1の色ヒントの入力をユーザから受け付ける、請求項1から5のいずれか一項に記載の画像処理システム。
  7. 前記対象検出部は、検出された前記対象部分に基づいて前記対象部分の分類項目を推定する,請求項6に記載の画像処理システム。
  8. 対象部分を含むモノクロ画像を取得する段階と、
    前記対象部分の分類項目と前記対象部分の色を示唆する第1の色ヒントとを取得する段階と、
    取得した前記分類項目に基づいて、前記第1の色ヒントを、前記対象部分の色を示唆する第2の色ヒントに変換する段階と、
    機械学習により学習した予測モデルを用いて、前記モノクロ画像および前記対象部分の前記第2の色ヒントから、前記モノクロ画像に対応するカラー化画像を生成する段階と
    を備える画像処理方法。
  9. 対象部分を含むモノクロ画像を取得する画像取得機能と、
    前記対象部分の分類項目と前記対象部分の色を示唆する第1の色ヒントとを取得するヒント取得機能と、
    取得した前記分類項目に基づいて、前記第1の色ヒントを、前記対象部分の色を示唆する第2の色ヒントに変換するヒント変換機能と、
    機械学習により学習した予測モデルを用いて、前記モノクロ画像および前記対象部分の前記第2の色ヒントから、前記モノクロ画像に対応するカラー化画像を生成するカラー化生成機能と
    をコンピュータに実現させるための画像処理プログラム
JP2021577792A 2020-02-13 2020-02-13 画像処理システム、画像処理方法および画像処理プログラム Active JP7351358B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/005562 WO2021161453A1 (ja) 2020-02-13 2020-02-13 画像処理システム、画像処理方法および非一時的なコンピュータ可読媒体

Publications (3)

Publication Number Publication Date
JPWO2021161453A1 JPWO2021161453A1 (ja) 2021-08-19
JPWO2021161453A5 JPWO2021161453A5 (ja) 2022-08-31
JP7351358B2 true JP7351358B2 (ja) 2023-09-27

Family

ID=77291468

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021577792A Active JP7351358B2 (ja) 2020-02-13 2020-02-13 画像処理システム、画像処理方法および画像処理プログラム

Country Status (3)

Country Link
US (1) US20230059407A1 (ja)
JP (1) JP7351358B2 (ja)
WO (1) WO2021161453A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230055204A1 (en) * 2021-08-18 2023-02-23 Adobe Inc. Generating colorized digital images utilizing a re-colorization neural network with local hints

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019117558A (ja) 2017-12-27 2019-07-18 日本放送協会 カラー情報推定モデル生成装置、画像カラー化装置およびそれらのプログラム
JP2019128889A (ja) 2018-01-26 2019-08-01 日本放送協会 画像情報変換器およびそのプログラム
JP2019145030A (ja) 2018-02-23 2019-08-29 キヤノン株式会社 画像処理装置、画像形成装置、画像処理方法、及びプログラム
JP2019145038A (ja) 2018-02-23 2019-08-29 シナノケンシ株式会社 電子図書の表示用データの作成装置および電子図書の表示用データの作成方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4466963B2 (ja) * 2005-01-11 2010-05-26 パイオニア株式会社 車両前方画像表示装置及び方法
US7672509B2 (en) * 2005-05-02 2010-03-02 Regents Of The University Of Minnesota Fast image and video data propagation and blending using intrinsic distances
JP2013070173A (ja) * 2011-09-21 2013-04-18 Fuji Xerox Co Ltd 画像読取装置、画像形成装置、及びプログラム
US10387746B2 (en) * 2016-05-06 2019-08-20 Ohio State Innovation Foundation Image color data normalization and color matching system for translucent material
JP2018098630A (ja) * 2016-12-13 2018-06-21 富士フイルム株式会社 色変換テーブル作成装置及び方法、色変換装置、並びにプログラム
US20200167972A1 (en) * 2017-05-24 2020-05-28 HELLA GmbH & Co. KGaA Method and system for automatically colorizing night-vision images
JP2019140538A (ja) * 2018-02-09 2019-08-22 キヤノン株式会社 画像処理装置、画像形成装置、画像処理方法、及びプログラム
US11158286B2 (en) * 2018-10-05 2021-10-26 Disney Enterprises, Inc. Machine learning color science conversion

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019117558A (ja) 2017-12-27 2019-07-18 日本放送協会 カラー情報推定モデル生成装置、画像カラー化装置およびそれらのプログラム
JP2019128889A (ja) 2018-01-26 2019-08-01 日本放送協会 画像情報変換器およびそのプログラム
JP2019145030A (ja) 2018-02-23 2019-08-29 キヤノン株式会社 画像処理装置、画像形成装置、画像処理方法、及びプログラム
JP2019145038A (ja) 2018-02-23 2019-08-29 シナノケンシ株式会社 電子図書の表示用データの作成装置および電子図書の表示用データの作成方法

Also Published As

Publication number Publication date
JPWO2021161453A1 (ja) 2021-08-19
WO2021161453A1 (ja) 2021-08-19
US20230059407A1 (en) 2023-02-23

Similar Documents

Publication Publication Date Title
KR102192899B1 (ko) 이미지에 보케 효과를 적용하는 방법 및 기록매체
US11000107B2 (en) Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and method for recommending makeup
KR102574141B1 (ko) 이미지 디스플레이 방법 및 디바이스
JP7444179B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
EP3155593B1 (en) Method and device for color processing of digital images
US20170280130A1 (en) 2d video analysis for 3d modeling
US20160307306A1 (en) Method and apparatus for image colorization
US11468571B2 (en) Apparatus and method for generating image
KR20200039043A (ko) 객체 인식 장치 및 그 동작 방법
Saleh et al. Adaptive uncertainty distribution in deep learning for unsupervised underwater image enhancement
JP7351358B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
KR102192016B1 (ko) 의미 인식 기반의 이미지 보정 방법 및 그를 위한 장치
JP7336033B2 (ja) データ増強基盤事物分析モデル学習装置及び方法
KR20190114739A (ko) 이미지 처리 방법 및 디바이스
US9756220B2 (en) Image data generating apparatus, printer, image data generating method, and non-transitory computer readable medium for extracting one or more pixels corresponding to a metallic-color region
JP5824423B2 (ja) 照明光色推定装置、照明光色推定方法及び照明光色推定プログラム
JP2018128950A (ja) 画像処理装置及びプログラム
CN108986052B (zh) 一种自适应的图像去光照方法和系统
JP2006287689A (ja) 画像処理方法、画像処理装置、画像処理プログラム、およびその画像処理装置を含む集積回路
JP2014006871A (ja) 画像領域分割装置、方法、およびプログラム
US20240135587A1 (en) Method of learning parameter of sensor filter and apparatus for performing the same
US20230410553A1 (en) Semantic-aware auto white balance
WO2022114190A1 (en) Information processing system and information processing method
US20230368490A1 (en) Preview and capture of stroke outlines from images and video
WO2014156558A1 (ja) 関連情報提供システムおよびその動作制御方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230828

R151 Written notification of patent or utility model registration

Ref document number: 7351358

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151