JP7724643B2 - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム

Info

Publication number
JP7724643B2
JP7724643B2 JP2021105036A JP2021105036A JP7724643B2 JP 7724643 B2 JP7724643 B2 JP 7724643B2 JP 2021105036 A JP2021105036 A JP 2021105036A JP 2021105036 A JP2021105036 A JP 2021105036A JP 7724643 B2 JP7724643 B2 JP 7724643B2
Authority
JP
Japan
Prior art keywords
image
demosaic
area
detection
mosaic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021105036A
Other languages
English (en)
Other versions
JP2023003764A (ja
JP2023003764A5 (ja
Inventor
洋佑 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2021105036A priority Critical patent/JP7724643B2/ja
Priority to US17/847,222 priority patent/US12444019B2/en
Publication of JP2023003764A publication Critical patent/JP2023003764A/ja
Publication of JP2023003764A5 publication Critical patent/JP2023003764A5/ja
Application granted granted Critical
Publication of JP7724643B2 publication Critical patent/JP7724643B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4015Image demosaicing, e.g. colour filter arrays [CFA] or Bayer patterns
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Color Television Image Signal Generators (AREA)

Description

本発明は、画像処理装置、画像処理方法、及びプログラムに関し、特に画像のデモザイク処理に関する。
デジタルカメラなどのデジタル撮像装置に利用される撮像素子の各画素には、カラーフィルタを介して特定の波長の光が入射する。例えば、Bayer配列を持つカラーフィルタを用いる場合、撮像素子からは、各画素がRGBいずれかの色に対応する画素値を有するモザイク画像データが得られる。そして、モザイク画像データの各画素について残り2色に対応する画素値を得るデモザイク処理などの様々な信号処理を施すことにより、各画素が複数の色のそれぞれに対応する画素値を有するカラー画像データが得られる。
デモザイク処理の手法としては、周囲の同一色の画素値に基づいて線形補間又は非線形補間を行う手法がある。さらなるデモザイク処理の手法として、非特許文献1は、深層学習技術を用いた補間手法を提案している。非特許文献1は、具体的には、学習データの中からデモザイクした際にアーティファクト等が発生する一部の困難データのみを抽出し、困難データに基づいてCNNベースのデモザイクネットワークの学習を行う手法を開示している。
Michael Gharbi et al. "Deep joint demosaicking and denoising", ACM Transactions on Graphics, Vol. 35, Issue 6, Article No.: 191 (2016).
本件発明者は、非特許文献1に記載された深層学習のような、ニューラルネットワークを用いるデモザイク処理では、偽色及びモアレは発生しにくくなるものの、本来存在しない偽パターンが発生しやすいことを見出した。
本発明は、デモザイク処理を、偽パターンを抑制しながら高精度に行うことを目的とする。
本発明の目的を達成するために、本発明の一実施形態に係る画像処理装置は以下の構成を備える。すなわち、
モザイク画像を取得する取得手段と、
前記モザイク画像に対して、ニューラルネットワークを用いた第1のデモザイク処理を行うことにより、第1のデモザイク画像を生成する第1の処理手段と、
前記モザイク画像に対して、前記第1のデモザイク処理とは異なる第2のデモザイク処理を行うことにより、第2のデモザイク画像を生成する第2の処理手段と、
前記第1のデモザイク画像から、特定のパターンを有する領域、又は、特定の色相を有する領域を、検出領域として検出する検出手段と、
前記第1のデモザイク画像の前記検出領域に前記第2のデモザイク画像の対応する部分を合成することにより、前記第1のデモザイク画像と前記第2のデモザイク画像とが合成された合成画像を生成する合成手段と、
を備えることを特徴とする。
デモザイク処理を、偽パターンを抑制しながら高精度に行うことができる。
一実施形態に係る画像処理装置のハードウェア構成例を示すブロック図。 一実施形態に係る画像処理装置の機能構成例を示すブロック図。 一実施形態に係る画像処理の流れを示すフローチャート。 所定のパターンを検出する処理について説明する図。 一実施形態に係る画像処理装置の機能構成例を示すブロック図。 一実施形態に係る画像処理の流れを示すフローチャート。 偽パターンの一例を示す図。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
[実施形態1]
(CNNについて)
一実施形態に係る画像処理装置は、ニューラルネットワークを用いたデモザイク処理を行う。まず、一実施形態で使用可能なニューラルネットワークの一例として、畳み込みニューラルネットワーク(Convolutional Neural Network:CNN)について説明する。CNNは、非特許文献1、及び深層学習技術を応用した画像処理技術において用いられている。CNNとは、フィルタと画像データとの畳み込み処理(convolution)の後で、非線形演算を行うことを繰り返す、学習に基づく画像処理技術である。フィルタは、局所受容野(Local Receptive Field:LPF)とも呼ばれる。フィルタと画像データとの畳み込み処理の後で、非線形演算を行うことにより得られる画像データは、特徴マップ(feature map)と呼ばれる。また、フィルタは学習(training又はlearning)により生成される。学習は、入力画像データと出力画像データとのペアからなる学習データ(training images又はdata sets)を用いて行われる。簡単にいうと、学習とは、入力画像データから対応する出力画像データへと高精度に変換可能なフィルタの値を、学習データから生成することである。詳細については後述する。
画像データが複数のカラーチャンネル(例えばRGB)を有する場合、又は特徴マップが複数枚の画像データから構成されている場合、畳み込みに用いるフィルタも、対応する数の複数のチャンネルを有することができる。すなわち、フィルタは、縦横サイズ及び枚数に加えて、チャンネル数の次元を持つ、4次元配列で表現される。フィルタと画像データ(又は特徴マップ)との畳み込み処理の後で、非線形演算する処理は、層(layer)という単位で表現される。例えば、特定の特徴マップ及びフィルタは、n層目の特徴マップ及びn層目のフィルタと呼ばれる。また、例えばフィルタと画像データとの畳み込み処理と非線形演算とのセットを3回繰り返すCNNは、3層のネットワーク構造を有するという。
このような畳み込みと非線形演算との組み合わせは、以下の式(1)で表すことができる。
式(1)において、Wはn層目のフィルタ、bはn層目のバイアス、fは非線形演算子、Xはn層目の特徴マップ、*は畳み込み演算子を表す。なお、(l)はl番目のフィルタ又は特徴マップであることを表している。フィルタ及びバイアスは、後述する学習により生成され、まとめてネットワークパラメータとも呼ばれる。
非線形演算の種類は特に限定されないが、例えばシグモイド関数(sigmoid function)又はReLU(Rectified Linear Unit)を用いることができる。ReLUに従う非線形演算は以下の式(2)で表すことができる。
すなわち、ReLU処理は、入力したベクトルXの要素のうち負の要素値をゼロに変換し、正の要素値をそのままにする非線形な処理である。
次に、CNNの学習について説明する。CNNの学習は、入力画像(生徒画像)と対応する出力画像(教師画像)との組からなる学習データに対して得られる目的関数を最小化することにより行うことができる。目的関数は、例えば以下の式(3)で表すことができる。
ここで、目的関数であるLは、正解(出力画像)と、推定(入力画像に対するCNN処理結果)との誤差を測る損失関数(loss function)である。また、Yはi番目の出力画像、Xはi番目の入力画像である。Fは、CNNの各層で行う演算(式1)をまとめて表す関数である。θは、ネットワークパラメータ(フィルタ及びバイアス)である。また、||Z||はベクトルZのL2ノルムを表し、簡単にいえばベクトルZの要素の2乗和の平方根である。式(3)における目的関数では、L2ノルムの2乗が用いられている。また、nは学習に用いる学習データ(入力画像と出力画像とのセット)の数である。一般に、学習データの総数は多いため、確率的勾配降下法(Stochastic Gradient Descent:SGD)を用いた学習においては、学習データの一部をランダムに選び、目的関数の最小化のために用いることができる。このような方法によれば、多くの学習データを用いた学習における計算負荷を低減できる。
目的関数の最小化(=最適化)法としては、モーメンタム(momentum)法、AdaGrad法、AdaDelta法、及びAdam法等の様々な方法を用いることができる。例えば、以下の式(4)に従うAdam法を採用することができる。
式(4)において、θ は、t回目の反復におけるi番目のネットワークパラメータであり、gはθ に関する損失関数Lの勾配である。また、m及びvはモーメントベクトルであり、αは基本学習率(base learning rate)であり、β及びβはハイパーパラメータであり、εは適宜定めることができる小さな定数である。使用する最適化法は特に限定されないが、最適化法ごとに収束性の違いがあり、学習時間の違いも生じることが知られているため、用途等に応じて選択することができる
CNNの具体的な構成は特に限定されない。CNNを用いたネットワークの具体的な構成としては、画像認識分野で用いられるResNet、及び超解像分野におけるRED-Net等が挙げられる。いずれも、多層のCNNを用いて、フィルタの畳み込みを何度も行うことにより、処理の高精度化が図られている。例えば、ResNetは畳み込み層をショートカットする経路を有するネットワーク構造を有しており、152層の多層ネットワークにより人間の認識率に迫る高精度な認識を実現する。なお、多層のCNNにより処理が高精度化する理由は、簡単にいえば、非線形演算を何度も繰り返すことによりCNNが入出力間の非線形な関係を表現できるためである。
(画像処理装置の構成)
本実施形態に係る画像処理装置は、ニューラルネットワーク又は深層学習を用いて生成された第1のデモザイク画像と第2のデモザイク画像とを合成することにより、偽パターンのような画質弊害を抑制することができる。上記のように、本願発明者は、ニューラルネットワーク又は深層学習を用いてデモザイク処理を行うと、偽色又はモアレのような画質弊害は良好に抑制されるが、偽パターンのような新たな画質弊害が発生しやすいことを見出した。偽パターンの一例を図7に示す。図7(A)は円を表すRAW画像データに対してニューラルネットワークを用いてデモザイク処理を行った結果を、図7(B)はニューラルネットワークを用いずに一般的なデモザイク処理を行った結果を、それぞれ表している。図7(A)に見られるように、ニューラルネットワークを用いて得られたデモザイク画像には、Bayer配列に沿って市松模様状の偽パターンが生じている。この原因は、ニューラルネットワーク又は深層学習のようなデータ駆動型の処理を行っていることにあり、具体的には学習データの不足若しくは偏り、又は学習の順番などによって画質弊害が生じるのではないかと考えられる。本実施形態においては、偽パターンが抑制された高精度なデモザイク画像を得るために、第1のデモザイク画像に対し、より偽パターンが生じにくい第2のデモザイク処理により得られた第2のデモザイク画像が合成される。
実施形態1に係る画像処理装置は、プロセッサとメモリとを備えるコンピュータにより実現することができる。図1は、実施形態1に係る画像処理装置のハードウェア構成の一例を示す。画像処理装置100は、例えばPC等のコンピュータであり、CPU101、RAM102、HDD103、汎用インターフェース(I/F)104、モニタ108、及びメインバス109を備える。また、画像処理装置100のメインバス109には、汎用I/F104を介して、カメラ等の撮像装置105、マウス又はキーボード等の入力装置106、及びメモリカード等の外部メモリ107が接続されている。汎用I/F104には、さらに、デモザイク処理に用いるニューラルネットワークの学習を行う学習処理装置110が接続されている。
CPU101は、HDD103に格納された各種ソフトウェア(コンピュータプログラム)に従って動作することにより、以下のような各種処理を実現する。まず、CPU101は、HDD103に格納されている画像処理アプリケーションのプログラムをRAM102に展開して実行することにより、モニタ108にユーザインターフェース(UI)を表示させる。続いて、HDD103又は外部メモリ107に格納されている各種データ、撮像装置105により取得された画像データ、入力装置106からのユーザ指示等が、RAM102に転送される。さらに、画像処理アプリケーションの処理に従って、RAM102に格納されているデータを用いた演算処理がCPU101からの指令に基づいて行われる。演算処理の結果は、モニタ108に表示することができ、また、HDD103又は外部メモリ107に格納することができる。なお、HDD103又は外部メモリ107に格納されている画像データがRAM102に転送されてもよい。また、不図示のネットワークを介してサーバから送信された画像データがRAM102に転送されてもよい。
以下では、上記のような構成を備える画像処理装置100において、CPU101からの指令に基づき、画像処理アプリケーションに入力されたRAW画像データを現像し、現像後の画像データを出力する態様について説明する。例えば図2に示されている、以下で説明される各部の機能は、CPU101のようなプロセッサが、RAM102又はHDD103のようなメモリに格納されたプログラムを実行することにより実現することができる。
図2は、本実施形態に係る画像処理装置100の機能構成例を示すブロック図である。図2に示すように、画像処理装置100は、画像取得部201、第1デモザイク部202、第2デモザイク部204、及び画像合成部205を有している。また、画像処理装置100は、検出部203及び現像部206を有していてもよい。なお、図2,5に示した構成は、適宜変形又は変更することが可能である。例えば、1つの機能部を複数の機能部に分割してもよいし、2つ以上の機能部を1つの機能部に統合してもよい。また、図2,5に示す構成は、2以上の装置によって実現されてもよい。この場合、各装置は、回路又有線若しくは無線のネットワークを介して接続され、互いにデータ通信を行って協調動作を行うことで、後述する各処理を実現することができる。
画像取得部201は、モザイク画像を取得する。本実施形態において、画像取得部201は、モザイク画像データとして、各画素が1色についての情報を有するRAW画像データを取得する。一方で、モザイク画像データは、1以上のプレーンそれぞれについての、画素値が設定された画素と画素値が設定されていない画素とが周期的に繰り返される画像の各画素値のデータ(例えばBayer配列に従うRGB各プレーンのデータ)であってもよい。以下では、RAW画像データは各画素が1色分の情報を有するBayer配列のカラーフィルタを用いて撮像されていることを前提として説明を行うが、本発明はその他の配列のカラーフィルタを用いて撮像されたRAW画像にも適用可能である。
第1デモザイク部202は、モザイク画像に対して、ニューラルネットワークを用いた第1のデモザイク処理を行うことにより、第1のデモザイク画像を生成する。本実施形態において、第1デモザイク部202は、画像取得部201が取得したRAW画像データに対するニューラルネットワークを用いたデモザイク処理を行い、色情報が補間された第1のデモザイク画像を生成する。本実施形態においては、ニューラルネットワークとして、学習処理装置110が出力した学習済モデルであるデモザイクネットワークモデルが用いられる。デモザイクネットワークモデルとは、ニューラルネットワークのアーキテクチャ及びパラメータ(係数)を意味する。本実施形態においては、デモザイクネットワークモデルとして、上記のような多層CNNをベースとしたニューラルネットワークが用いられるが、ニューラルネットワークのアーキテクチャはCNNをベースとするものには限られない。
なお、学習処理装置110は、以下のようにしてニューラルネットワークの学習を行うことができる。まず、モザイク画像データ(生徒画像データ)をニューラルネットワークに入力し、ニューラルネットワークからの出力とデモザイク画像データ(教師画像データ)との誤差を評価する。そして、この誤差に基づいて、誤差逆伝播法によりニューラルネットワークのパラメータの更新を行う。この処理を繰り返すことにより、学習済モデルを得ることができる。ここで、教師画像データとしては任意の画像のデータを用いることができ、例えばRAW画像データに対してデモザイク処理を行わずに縮小処理を行うことにより得られた、デモザイク処理に伴う画質弊害が少ない画像を用いることができる。生徒画像データは、教師画像データをカラーフィルタ配列パターンに従ってサンプリングすることにより生成することができる。
第2デモザイク部204は、モザイク画像に対して、第1のデモザイク処理とは異なる第2のデモザイク処理を行うことにより、第2のデモザイク画像を生成する。本実施形態においては、第2デモザイク部204は、画像取得部201が取得したRAW画像データに対する第2のデモザイク処理を行い、色情報が補間された第2のデモザイク画像を出力する。第2のデモザイク処理の種類は特に限定されない。例えば、まばらなRGB各色のデータに対して、周囲の同一色の画素値に基づく線形補間を行うことにより、各画素に対応する画素値を算出することができる。具体的には、RGB各プレーンの画像データに対して線形フィルタを適用することにより、線形補間を行うことができる。また、別の方法として、メディアン処理による補間を行ってもよいし、エッジ解析に基づく適応的な補間を行う非線形補間(例えばACPI法)を用いてもよい。さらには、第1のデモザイク処理で用いた学習済モデルとは異なる学習済モデルを用いてもよい。この場合に用いる学習済モデルは、例えば、偽色又はモアレと比較して、偽パターンをより強く抑制するように学習が行われていてもよい。
画像合成部205は、第1のデモザイク画像と第2のデモザイク画像とが合成された合成画像を生成する。合成方法は特に限定されない。本実施形態においては、第1のデモザイク画像のうち、画質弊害が検出された領域(弊害領域)に対して、第2のデモザイク画像が合成される。このために、本実施形態に係る画像処理装置100は、第1のデモザイク画像から画質弊害を検出する検出部203を有することができる。
検出部203は、第1のデモザイク画像から、特定の属性を有する領域を検出する。本実施形態において、検出部203は、第1のデモザイク画像から画質弊害が存在する領域(弊害領域)を検出することができる。とりわけ、ニューラルネットワークを用いたデモザイク処理においては偽パターンが生じやすいことから、検出部203は、第1のデモザイク画像から特定のパターンを有する領域を検出することができる。以下では、検出部203が検出した領域のことを検出領域と呼ぶ。
そして、画像合成部205は、検出部203による検出結果に基づいて、第1のデモザイク画像と第2のデモザイク画像とを合成することができる。例えば、画像合成部205は、第1のデモザイク画像の検出領域に第2のデモザイク画像の対応する部分を合成することができる。こうして得られた合成画像において、検出領域に相当する部分は第2のデモザイク画像となり、検出領域以外に相当する部分は第1のデモザイク画像となっている。検出部203及び画像合成部205の処理の詳細については後に説明する。
現像部206は、画像合成部205によって合成されたデモザイク画像に対して現像処理を行うことにより、現像処理結果を出力する。現像処理の種類は特に限定されず、例えばノイズ低減処理、ダイナミックレンジ調整処理、ガンマ補正処理、シャープネス処理、及び色調整処理のうちの1つ以上であってもよい。
(画像処理の流れ)
本実施形態に係る画像処理装置100が行う処理について、図3のフローチャートを参照して説明する。図3に示されるフローチャートの処理は、CPU101のようなプロセッサが、RAM102又はHDD103のようなメモリに格納されたプログラムを実行することにより実現することができる。
S301で、画像取得部201は、撮像装置105、HDD103、又は外部メモリ107等からRAW画像データを取得する。そして、画像取得部01は、RAW画像データに対して、ホワイトバランス処理又はオフセット加算処理等の前処理を実施する。
S302で、第1デモザイク部202は、上述のように、学習済モデルを用いて、S301における前処理後のRAW画像データに対する第1のデモザイク処理を行い、色情報が補間された第1のデモザイク画像を出力する。例えば、図4(A)に示すように、RAW画像データ400に対するデモザイク処理により第1のデモザイク画像データが得られる。そして、第1のデモザイク画像データををRGBの3チャンネルに分割することにより、RGBそれぞれのデモザイク画像データ410R,410G,410Bが得られる。
S303で、検出部203は、第1のデモザイク画像から画質弊害が存在する弊害領域を検出する。検出部203は、空間フィルタを用いて、特定のパターンが存在する領域を、弊害領域として検出することができる。以下では、画質弊害を検出する空間フィルタを検出フィルタと表記する。
本願発明者は、ニューラルネットワークを用いて、所定の色配列に従うモザイク画像をデモザイク処理すると、この所定の色配列に相関のある偽パターンが生じやすいことを見出した。例えば、上記のように、Bayer配列に従うモザイク画像をデモザイク処理すると、Bayer配列に相関を持つ市松模様状の偽パターンが生じやすい。そこで、この例において、検出部203は、所定の色配列に相関のあるパターン、例えば市松模様状のパターンを、特定のパターンとして検出する。このようなパターンを検出するためには、Bayer配列に相関を持つフィルタ係数が設定された検出フィルタを用いることができる。このような検出フィルタの一例である、5×5のサイズを有するフィルタを図4(B)に示す。もっとも、検出フィルタのサイズ及び係数は特に限定されず、例えば3×3以上のサイズを有するフィルタを用いることができる。また、図4(B)に示す、係数として4又は-4が設定された検出フィルタの代わりに、縦横それぞれの方向について1画素ずつ正負の値が繰り返される検出フィルタを用いてもよい。さらには、弊害検出フィルタの係数は、中央部に近いほど値が大きく、端部に近いほど値が小さく設定されていてもよい。
検出部203は、デモザイク画像データ410R,410G,410Bのそれぞれに対して、検出フィルタを適用することができる。こうして、検出部203は、各チャンネルについての特定のパターンの強度を示すマップを生成することができる。そして、検出部203は、R、G、及びBの各チャネルについて検出された特定のパターンの強度に基づいて、弊害領域を検出することができる。ここで、マップには孤立点のようなノイズが発生することがあり、これらのノイズが弊害領域として検出されることを防ぐために、検出部203は各チャンネルのマップに対してノイズ除去フィルタを適用することができる。ノイズ除去フィルタとしては、メディアンフィルタを用いることができる。また、画像データにおいてGチャンネルの画素値は大きくなる傾向が大きいことから、弊害領域を検出する際には、Gチャネルについて検出された強度の重みを、R及びBチャネルについて検出された強度の重みよりも大きくすることができる。例えば、特定のパターンの検出においてGチャンネルの重みが大きくなるように、Gチャンネルのマップの各強度値に対して1より大きい係数を乗算してもよい。
そして、検出部203は、各画素について、画素ごとに各チャンネルの特定のパターンの強度の最小値を抽出し、予め設定した閾値th(例えばth=100)と比較することができる。画素について抽出された最小値が閾値th以上の場合、この画素は弊害領域に属すると判定することができる。
S304で、検出部203は、第1のデモザイク画像から弊害領域を検出したか否かを判定する。弊害領域を検出した場合、処理はS305へ進み、そうでない場合、処理はS307へ進む。
S305で、第2デモザイク部204は、上述のように、S301における前処理後のRAW画像データに対する第2のデモザイク処理を行う。
S306で、画像合成部205は、第1のデモザイク画像と第2のデモザイク画像とを合成する。ここで、画像合成部205は、第1のデモザイク画像からの検出領域に、第2のデモザイク画像を合成することができる。
もっとも、合成方法はこの方法には限定されない。例えば、検出領域の外側に移行領域を設定してもよい。このような移行領域は、検出領域をD(例えばD=10)画素分だけ膨張させる処理により設定することができる。そして、合成テモザイク画像の移行領域に相当する部分には、アルファブレンド手法により合成された第1のデモザイク画像と第2のデモザイク画像との合成画像を適用してもよい。こうして得られた合成画像は、検出領域の境界部に、第1のデモザイク画像と第2のデモザイク画像とが重畳された画像を有している。また、合成画像の検出領域に相当する部分は第2のデモザイク画像であり、検出領域及び移行領域以外の領域に相当する部分は第1のデモザイク画像である。また、別の方法として、検出領域における第2のデモザイク画像の重みが、検出領域以外における第2のデモザイク画像の重みよりも大きくなるように、第1のデモザイク画像と第2のデモザイク画像とを重畳してもよい。
S307で、現像部206は、S306で出力された合成画像データに対して現像処理を行い、現像処理結果を出力する。結果の出力先は特に限定されず、例えば、HDD103、外部メモリ107、又は汎用I/F104に接続される他の機器(例えばネットワークを介して画像処理装置100と接続される外部機器)であってもよい。
なお、図3の例では、第1のデモザイク処理(S302)の後に第2のデモザイク処理(S305)が直列に行われていたが、第1及び第2のデモザイク処理は並列に行われてもよい。また、第2のデモザイク処理はモザイク画像全体に対して行われたが、S303で検出された検出領域に対応するモザイク画像の一部に対してのみ、第2のデモザイク処理が行われてもよい。
このように本実施形態によれば、第1のデモザイク画像に対し、より偽パターンが生じにくい第2のデモザイク画像を合成することにより、偽パターンが抑制された高精度なデモザイク画像を得ることができる。とりわけ、ニューラルネットワーク又は深層学習技術を用いて得られたデモザイク処理において発生しやすい偽パターンを有する弊害領域を検出し、弊害領域には別のデモザイク処理結果を適用することにより、偽パターンを効果的に抑制することができる。
[実施形態2]
実施形態1では、特定のパターンの検出結果に基づいて、第1のデモザイク画像と第2のデモザイク画像とが合成された。一方で本願発明者は、ニューラルネットワーク又は深層学習を用いたデモザイク処理においては、特定の色相の領域において偽パターンのような画質弊害が生じやすいことを見出した。そこで、実施形態2では、学習済モデルを用いたデモザイク処理において弊害が発生しやすい色相が事前に特定され、この色相の領域の検出結果に基づいて、第1のデモザイク画像と第2のデモザイク画像とが合成される。以下では、実施形態1との差異を中心に説明し、実施形態1と共通する部分については説明を省略する。
図5は、実施形態2に係る画像処理装置100の機能構成例を示すブロック図である。画像取得部201、第1デモザイク部202、第2デモザイク部204、画像合成部205、及び現像部206の機能は実施形態1と同様であり、相違点については後述する。
テスト画像取得部501は、テスト用の画像データを取得し、テスト用の画像データに対するモザイク処理により、テスト用のモザイク画像データを生成する。こうして、ニューラルネットワークに入力されるモザイク画像データと同じデータ形式のモザイク画像データを生成することができる。テスト用の画像データとしては、例えば、モザイク画像データではないRGB画像データを用いることができる。テスト用の画像の種類は特に限定されないが、様々な色相の組み合わせからなる、記号又は図形が描画された画像のデータであってもよい。例えば、テスト用の画像データは、1つの色の記号又は図形部分と、別の色の背景部分と、で構成される画像のデータであってもよい。また、テスト用の画像データに対するモザイク処理としては、Bayer配列のようなカラーフィルタ配列に基づくサンプリング処理を行うことができ、この場合Bayer配列のテスト用のモザイク画像データを出力することができる。
第1デモザイク部202は、モザイク画像に対して第1のデモザイク処理を行うことに加えて、テスト用のモザイク画像に対して、ニューラルネットワークを用いた第1のデモザイク処理を行うことにより、テスト用のデモザイク画像を生成する。第1のデモザイク処理は実施形態1と同様である。
検出部503は、テスト用のデモザイク画像のうち、特定の属性を有する領域を検出する。本実施形態において、検出部503は、実施形態1の検出部203と同様に、第1のデモザイク画像から弊害領域を検出することができ、例えば、市松模様状のパターンのような特定のパターンを有する領域を検出することができる。
解析部504は、検出部503が検出した弊害領域の色相を判定する。そして、解析部504は、判定された弊害領域の色相を記録する。具体的には、解析部504は、RGB色空間における弊害領域の色値をHSV色空間へと変換し、色相値(H:0~180)を抽出して、色相情報ファイルに記録することができる。
検出部203は、第1デモザイク部202がモザイク画像データに対する第1のデモザイク処理を行うことにより得られた第1のデモザイク画像のうち、特定の属性を有する領域を検出する。例えば、検出部203は、解析部504により判定された弊害領域の色相と同様の色相の領域を検出することができる。
本実施形態において、検出部203は、第1のデモザイク画像から特定の色相を有する領域を検出する。ここで、特定の色相を示す情報としては、解析部が記録した弊害領域の色相情報を用いることができる。具体的には、検出部203は、色相情報ファイルに記録された色相と同様の色相を持つ領域を検出することができる。実施形態1と同様に、検出部203が検出した領域のことを検出領域と呼ぶ。なお、検出領域においては偽パターンのような画質弊害が生じやすいことから、検出領域のことを弊害領域と呼んでもよい。
なお、検出部203は、画像取得部201が取得したモザイク画像から、弊害領域の色相と同様の色相の領域を検出してもよい。このような構成は、第1のデモザイク画像のうち、第1のデモザイク処理における補間の対象とならなかった画素に基づいて検出領域を検出することと等価である。したがって、このような構成においても、第1のデモザイク画像から弊害領域の色相と同様の色相の領域を検出しているといえる。
画像合成部205は、第1のデモザイク画像と第2のデモザイク画像とを合成する。ここで、画像合成部205は、第1のデモザイク画像のうち、検出部203が検出した検出領域に、第2のデモザイク画像を合成することができる。すなわち、合成により得られた合成画像は、検出領域の位置に第2のデモザイク画像を有し、検出領域の外側に第1のデモザイク画像を有している。
本実施形態に係る画像処理装置100が行う処理について、図6(A)及び(B)のフローチャートを参照して説明する。これらのフローチャートの処理は、CPU101のようなプロセッサが、RAM102又はHDD103のようなメモリに格納されたプログラムを実行することにより実現することができる。なお、図6(A)及び(B)の処理は別の装置によって行われてもよい。
図6(A)は、テスト画像データを用いて弊害領域の色相を判定する処理である。図6(A)の処理は、複数のテスト画像のそれぞれに対して行うことができる。
S601で、テスト画像取得部501は、撮像装置105、HDD103、又は外部メモリ107等からテスト画像データを取得する。また、テスト画像取得部501は、上述のようにテスト画像データからテストモザイク画像データを出力する。テスト画像取得部501は、テストモザイク画像データに対してホワイトバランス処理又はオフセット加算処理等の前処理を行ってもよい。
S602で、第1デモザイク部02は、上述のように、学習処理装置110が出力した学習済モデルを用いた第1のデモザイク処理により、色情報が補間されたテストデモザイク画像データを出力する。
S603で、検出部503は、S303と同様の方法でテストデモザイク画像データから弊害領域を検出する。
S604で、検出部503は、S304と同様の方法でテストデモザイク画像データから弊害領域を検出したか否かを判定する。弊害領域を検出した場合、処理はS605へ進み、そうでない場合、処理はS606へ進む。
S605で、解析部504は、上述のように、S604で検出した弊害領域の色相値を抽出し、色相情報ファイルに記録する。色相情報ファイルには、検出された弊害領域の個数に応じた色相値を記録することができる。このとき、S604で検出された色相値が既に記録されている色相値と類似する場合は、記録をスキップしてもよい。なお、弊害領域に複数の色が含まれる場合、解析部504は、それぞれの色の情報(例えば色相値)を記録することができる。別の方法として、解析部504は、弊害領域の各画素の色のヒストグラムを作成し、最も出現頻度が高い色相値を記録してもよい。
図6(B)は、RAW画像データに対するデモザイク処理である。S606及びS607の処理は、実施形態1のS301及びS302と同様である。
S608で、検出部203は、第1のデモザイク画像から、色相情報ファイルに記録されている色相と同様の色相を持つ領域(検出領域)を検出する。検出部203は、例えば、第1のデモザイク画像をRGB色空間からHSV色空間に変換することができる。そして、第1のデモザイク画像のうち、X±αの範囲に該当する色相を有する領域を検出することができる。ここで、色相値Xは色相情報ファイルに記録されている色相値(0~180)であり、αは任意の値である。こうして、検出部203は、色相情報ファイルに記録されている色相から所定範囲内の色相を持つ領域を検出することができる。色相情報ファイルに複数の色相値が記録されている場合、検出部203は、色相情報ファイルに記録されているいずれかの色相から所定範囲内の色相を持つ領域を検出することができる。
S609で、検出部203は、第1のデモザイク画像に検出領域が存在するか否かを判定する。検出領域が存在する場合、処理はS610へ進み、そうでない場合、処理はS612へ進む。
S610の処理は、実施形態1のS305と同様である。S611の処理も、実施形態1のS306と同様であり、第1のデモザイク画像からの検出領域に第2のデモザイク画像を合成することができる。S612の処理も、実施形態1のS307と同様である。なお、実施形態1と同様に、第1のデモザイク処理(S60)と第2のデモザイク処理(S610)とを並列に行ってもよいし、S608で検出された検出領域に対応するモザイク画像の一部に対してのみ、第2のデモザイク処理が行われてもよい。
上記の実施形態では、弊害領域の色相と同様の色相の領域が検出され、この領域に第2のデモザイク画像が合成された。一方で、本願発明者は、画像の一部の領域が特定の色相を有し、画像の別の領域が別の特定の色相を有する場合に、特に偽パターンのような画質弊害が生じやすいことを見出した。このため、検出部503は、弊害領域の色相と、弊害領域以外の領域の色相と、の組み合わせを検出及び記録してもよい。この場合、検出部503は、弊害領域以外の各画素の色相のヒストグラムを作成し、最も出現頻度が高い色相値を記録してもよい。このような実施形態において、検出部203は、弊害領域の色相と、弊害領域以外の色相と、の組み合わせに基づいて、第2のデモザイク画像を合成する領域を決定することができる。例えば、検出部203は、解析部504により判定された弊害領域の色相と同様の色相の領域を検出し、検出領域以外の領域の色相と、記録されている弊害領域以外の領域の色相と、に基づいて、検出領域に第2のデモザイク画像を合成するか否かを判定できる。具体的には、検出部203は、検出領域以外の各画素の色相のヒストグラムを作成することができる。そして、検出部203は、最も出現頻度が高い色相値が、記録された弊害領域以外の領域の色相値と同様である場合に、検出領域に第2のデモザイク画像を合成すると判定することができる。
このように本実施形態によれば、学習済モデルを用いて得られる第1のデモザイク処理により偽パターンが発生しやすい色相を事前に特定し、特定した色相の領域には別のデモザイク処理結果を適用することで、偽パターンを効果的に抑制することができる。
(その他の実施例)
上述の実施形態では、図7に示すような特定のパターンを第1のデモザイク画像から検出する例について説明した。一方で、さらに特定のパターンを検出する処理を第2のデモザイク画像に対して行ってもよい。この処理は、S303及びS603と同様に行うことができる。この場合、第1デモザイク画像から検出された特定のパターンが、第2デモザイク画像の対応する位置から検出されていない場合に、第1デモザイク画像からは偽パターンが検出されていると判定することができる。したがって、第1デモザイク画像から検出された特定のパターンの領域が弊害領域と判定される。一方で、第1デモザイク画像から検出された特定のパターンが、第2デモザイク画像の対応する位置からも検出された場合、第1デモザイク画像からは本物のパターンが検出されていると判定し、この領域は弊害領域として判定しないことが可能になる。このような構成によれば、検出部203,503が、本物の市松模様が存在する領域を弊害領域として判定することを抑制することができる。
実施形態1では、第1のデモザイク画像のうち特定のパターンが検出された領域に対して第2のデモザイク画像を合成した。しかしながら、第1のデモザイク画像の補正方法はこの方法に限定されない。例えば、一実施形態に係る画像処理装置は、実施形態1の画像取得部201及び第1デモザイク部202に加えて、モザイク画像から市松模様状のパターンを有する領域を検出する検出部203を備える。検出部203は、実施形態1と同様の方法で市松模様状のパターンを検出できる。さらに、この画像処理装置は、第1のデモザイク画像のうち市松模様状のパターンが検出された検出領域に対して補正処理を行う補正部(不図示)を備える。この補正部は、実施形態1と同様に市松模様状のパターンが検出された部分に対して第2のデモザイク画像を合成することにより、この部分の補正を行ってもよい。一方で、この補正部は、市松模様状のパターンが検出された部分に対して、メディアンフィルタ等を用いた平滑化処理を行うことにより、この部分の補正を行ってもよい。このように、補正部は、市松模様状のパターンが検出された部分に対して、市松模様状のパターンを抑制する補正処理を行うことができる。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:画像処理装置、201:画像取得部、202:第1デモザイク部、203:検出部、204:第2デモザイク部、205:画像合成部

Claims (14)

  1. モザイク画像を取得する取得手段と、
    前記モザイク画像に対して、ニューラルネットワークを用いた第1のデモザイク処理を行うことにより、第1のデモザイク画像を生成する第1の処理手段と、
    前記第1のデモザイク画像のうち、市松模様状のパターンを有する領域を検出領域として検出する検出手段と、
    前記第1のデモザイク画像の前記検出領域に対して補正処理を行う補正手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記モザイク画像に対して、前記第1のデモザイク処理とは異なる第2のデモザイク処理を行うことにより、第2のデモザイク画像を生成する第2の処理手段をさらに備え、
    前記補正手段が行う前記補正処理は、前記第1のデモザイク画像の前記検出領域に前記第2のデモザイク画像の対応する部分を合成する処理であり、
    前記補正処理により得られた画像は、前記検出領域の位置に前記第2のデモザイク画像を有し、前記検出領域の外側に前記第1のデモザイク画像を有することを特徴とする、請求項1に記載の画像処理装置。
  3. 前記補正処理により得られた画像は、さらに、前記検出領域の境界部に、前記第1のデモザイク画像と前記第2のデモザイク画像とが重畳された画像を有することを特徴とする、請求項2に記載の画像処理装置。
  4. 前記モザイク画像は、所定の色配列に従うRAW画像であり、
    前記市松模様状のパターンは、前記所定の色配列に相関のあるパターンであることを特徴とする、請求項1から3のいずれか1項に記載の画像処理装置。
  5. 前記モザイク画像は、Bayer配列に従うRAW画像であり、
    前記第1の処理手段は、R、G、及びBの各チャネルについての前記第1のデモザイク画像を生成し、
    前記検出手段は、R、G、及びBの各チャネルについての前記第1のデモザイク画像から前記市松模様状のパターンの強度を検出し、
    前記検出手段は、Gチャネルについて検出された前記強度の重みを、R及びBチャネルについて検出された前記強度の重みよりも大きくして、R、G、及びBの各チャネルについて検出された前記強度に基づいて前記検出領域を検出することを特徴とする、請求項1から4のいずれか1項に記載の画像処理装置。
  6. 画像処理装置が行う画像処理方法であって、
    モザイク画像を取得する工程と、
    前記モザイク画像に対して、ニューラルネットワークを用いた第1のデモザイク処理を行うことにより、第1のデモザイク画像を生成する工程と、
    前記第1のデモザイク画像のうち、市松模様状のパターンを有する領域を検出領域として検出する工程と、
    前記第1のデモザイク画像の前記検出領域に対して補正処理を行う工程と、
    を有することを特徴とする画像処理方法。
  7. モザイク画像を取得する取得手段と、
    前記モザイク画像に対して、ニューラルネットワークを用いた第1のデモザイク処理を行うことにより、第1のデモザイク画像を生成する第1の処理手段と、
    前記モザイク画像に対して、前記第1のデモザイク処理とは異なる第2のデモザイク処理を行うことにより、第2のデモザイク画像を生成する第2の処理手段と、
    前記第1のデモザイク画像から、特定のパターンを有する領域、又は、特定の色相を有する領域を、検出領域として検出する検出手段と、
    前記第1のデモザイク画像の前記検出領域に前記第2のデモザイク画像の対応する部分を合成することにより、前記第1のデモザイク画像と前記第2のデモザイク画像とが合成された合成画像を生成する合成手段と、
    を備えることを特徴とする画像処理装置。
  8. 前記合成画像は、前記検出領域の位置に前記第2のデモザイク画像を有し、前記検出領域の外側に前記第1のデモザイク画像を有することを特徴とする、請求項7に記載の画像処理装置。
  9. 前記合成画像は、さらに、前記検出領域の境界部に、前記第1のデモザイク画像と前記第2のデモザイク画像とが重畳された画像を有することを特徴とする、請求項8に記載の画像処理装置。
  10. 前記検出手段は、前記特定のパターンを有する領域を前記検出領域として検出し、
    前記モザイク画像は、所定の色配列に従うRAW画像であり、
    前記特定のパターンは、前記所定の色配列に相関のあるパターンであることを特徴とする、請求項7から9のいずれか1項に記載の画像処理装置。
  11. 前記検出手段は、前記特定のパターンを有する領域を前記検出領域として検出し、
    前記モザイク画像は、Bayer配列に従うRAW画像であり、
    前記第1の処理手段は、R、G、及びBの各チャネルについての前記第1のデモザイク画像を生成し、
    前記検出手段は、R、G、及びBの各チャネルについての前記第1のデモザイク画像から前記特定のパターンの強度を検出し、
    前記検出手段は、Gチャネルについて検出された前記強度の重みを、R及びBチャネルについて検出された前記強度の重みよりも大きくして、R、G、及びBの各チャネルについて検出された前記強度に基づいて前記検出領域を検出することを特徴とする、請求項7から10のいずれか1項に記載の画像処理装置。
  12. 前記検出手段は、前記特定の色相を有する領域を前記検出領域として検出し、
    前記第1の処理手段は、さらにテスト用のモザイク画像に対して前記第1のデモザイク処理を行うことにより、テスト用のデモザイク画像を生成し、
    前記画像処理装置は、前記テスト用のデモザイク画像から特定のパターンを有する領域を検出する手段と、当該検出された領域の色相情報を、前記特定の色相を示す情報として記録する手段と、をさらに備えることを特徴とする、請求項7から9のいずれか1項に記載の画像処理装置。
  13. 画像処理装置が行う画像処理方法であって、
    モザイク画像を取得する工程と、
    前記モザイク画像に対して、ニューラルネットワークを用いた第1のデモザイク処理を行うことにより、第1のデモザイク画像を生成する工程と、
    前記モザイク画像に対して、前記第1のデモザイク処理とは異なる第2のデモザイク処理を行うことにより、第2のデモザイク画像を生成する工程と、
    前記第1のデモザイク画像から、特定のパターンを有する領域、又は、特定の色相を有する領域を、検出領域として検出する工程と、
    前記第1のデモザイク画像の前記検出領域に前記第2のデモザイク画像の対応する部分を合成することにより、前記第1のデモザイク画像と前記第2のデモザイク画像とが合成された合成画像を生成する工程と、
    を有することを特徴とする画像処理方法。
  14. コンピュータを、請求項1から5及び7から12のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2021105036A 2021-06-24 2021-06-24 画像処理装置、画像処理方法、及びプログラム Active JP7724643B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021105036A JP7724643B2 (ja) 2021-06-24 2021-06-24 画像処理装置、画像処理方法、及びプログラム
US17/847,222 US12444019B2 (en) 2021-06-24 2022-06-23 Image processing apparatus, image processing method, and medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021105036A JP7724643B2 (ja) 2021-06-24 2021-06-24 画像処理装置、画像処理方法、及びプログラム

Publications (3)

Publication Number Publication Date
JP2023003764A JP2023003764A (ja) 2023-01-17
JP2023003764A5 JP2023003764A5 (ja) 2024-05-08
JP7724643B2 true JP7724643B2 (ja) 2025-08-18

Family

ID=84542368

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021105036A Active JP7724643B2 (ja) 2021-06-24 2021-06-24 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US12444019B2 (ja)
JP (1) JP7724643B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240281921A1 (en) * 2023-02-22 2024-08-22 Samsung Electronics Co., Ltd. Deep modular systems for image restoration
CN117893952B (zh) * 2024-03-15 2024-06-28 视睿(杭州)信息科技有限公司 基于深度学习的视频马赛克缺陷检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011083033A (ja) 2007-07-23 2011-04-21 Nvidia Corp デジタル画像内のカラーアーティファクトを低減させるための技法
JP2011223221A (ja) 2010-04-08 2011-11-04 Nippon Hoso Kyokai <Nhk> 撮影装置および画像統合プログラム
JP2021040212A (ja) 2019-09-02 2021-03-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4770154B2 (ja) * 2004-11-08 2011-09-14 ソニー株式会社 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
DE102013000301A1 (de) * 2013-01-10 2014-07-10 Basler Ag Verfahren und Vorrichtung zur Erzeugung eines verbesserten Farbbildes mit einem Sensor mit Farbfilter
US10863148B2 (en) * 2018-06-15 2020-12-08 Qualcomm Incorporated Tile-selection based deep demosaicing acceleration
US10915990B2 (en) * 2018-10-18 2021-02-09 General Electric Company Systems and methods for denoising medical images with deep learning network
JP2021087201A (ja) 2019-11-29 2021-06-03 キヤノン株式会社 画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム
JP7463186B2 (ja) 2020-05-26 2024-04-08 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP7512150B2 (ja) 2020-09-24 2024-07-08 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
CN116711295A (zh) * 2020-12-30 2023-09-05 华为技术有限公司 图像处理方法和设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011083033A (ja) 2007-07-23 2011-04-21 Nvidia Corp デジタル画像内のカラーアーティファクトを低減させるための技法
JP2011223221A (ja) 2010-04-08 2011-11-04 Nippon Hoso Kyokai <Nhk> 撮影装置および画像統合プログラム
JP2021040212A (ja) 2019-09-02 2021-03-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
US12444019B2 (en) 2025-10-14
JP2023003764A (ja) 2023-01-17
US20220414826A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
JP3663112B2 (ja) 方向性平滑化演算を用いた画像のモザイク解除方法
JP7512150B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP5904213B2 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP5524692B2 (ja) 情報処理装置および方法ならびにプログラム
JP7508265B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP3837575B2 (ja) 超解像処理の高速化方法
WO2004068862A1 (ja) 高解像度カラー画像生成方法,高解像度カラー画像生成装置及び高解像度カラー画像生成プログラム
JP7741654B2 (ja) 学習装置、画像処理装置、学習処理方法、及びプログラム
JP7463186B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN101512600A (zh) 应用于运动分析的稀疏积分图像描述符
KR20230117170A (ko) 적층 제조를 위한 딥 러닝 기반 이미지 향상
JP2021087201A (ja) 画像処理装置、画像処理方法、学習装置、学習方法、撮像装置、及びプログラム
JP7724643B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP4442413B2 (ja) 画像処理装置、画像処理方法、プログラム、及び記録媒体
Saeed et al. A granular level feature extraction approach to construct hr image for forensic biometrics using small training dataset
JP6645442B2 (ja) 情報処理装置、情報処理方法、及び、プログラム
JP7398938B2 (ja) 情報処理装置およびその学習方法
US12333675B2 (en) Image processing apparatus, image processing method, and storage medium
Wu et al. Deep learning‐based super‐resolution with feature coordinators preservation for vision‐based measurement
JP5928465B2 (ja) 劣化復元システム、劣化復元方法およびプログラム
CN112241640B (zh) 一种图形码确定方法、装置和工业相机
JP6835227B2 (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
JP7598272B2 (ja) 画像処理装置および学習方法
McCrackin et al. Strategic image denoising using a support vector machine with seam energy and saliency features
Prajapati et al. Unsupervised Denoising for Super-Resolution (UDSR) of Real-World Images

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20250220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20250228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20250428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20250707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20250805

R150 Certificate of patent or registration of utility model

Ref document number: 7724643

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150