JP7297470B2 - 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法 - Google Patents

画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法 Download PDF

Info

Publication number
JP7297470B2
JP7297470B2 JP2019039088A JP2019039088A JP7297470B2 JP 7297470 B2 JP7297470 B2 JP 7297470B2 JP 2019039088 A JP2019039088 A JP 2019039088A JP 2019039088 A JP2019039088 A JP 2019039088A JP 7297470 B2 JP7297470 B2 JP 7297470B2
Authority
JP
Japan
Prior art keywords
image
noise
image processing
input
processing method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019039088A
Other languages
English (en)
Other versions
JP2020144488A (ja
Inventor
法人 日浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019039088A priority Critical patent/JP7297470B2/ja
Priority to US16/808,484 priority patent/US11195055B2/en
Priority to EP20160909.6A priority patent/EP3706042B1/en
Priority to CN202010141298.3A priority patent/CN111669522A/zh
Publication of JP2020144488A publication Critical patent/JP2020144488A/ja
Application granted granted Critical
Publication of JP7297470B2 publication Critical patent/JP7297470B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/63Noise processing, e.g. detecting, correcting, reducing or removing noise applied to dark current
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/67Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response
    • H04N25/671Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction
    • H04N25/673Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction by using reference sources
    • H04N25/674Noise processing, e.g. detecting, correcting, reducing or removing noise applied to fixed-pattern noise, e.g. non-uniformity of response for non-uniformity detection or correction by using reference sources based on the scene itself, e.g. defocusing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、ニューラルネットワークのノイズに対するロバスト性を向上させることが可能な画像処理方法に関する。
特許文献1には、ニューラルネットワークを用いて、画像中における認識対象の位置を高精度に判定する方法が開示されている。
特開2016-110232号公報
O. Ronneberger, P. Fischer, and T. Brox, "U-net: Convolutional networks for biomedical image segmentation," in MICCAI, 2015.
しかし、特許文献1に開示された方法は、画像のSN比が低い場合に判定の精度が低下する。撮像素子の性能や撮像時のISO感度によって画像のノイズは変化するため、ニューラルネットワークには様々な強さのノイズの画像が入力され得る。SN比が低いと、ノイズの影響によって被写体の特徴量のみを抽出することができないため、認識精度が低下する。
ニューラルネットワークのノイズに対するロバストネスを向上させる方法として、以下の2つの方法が考えられる。第1の方法は、ニューラルネットワークの学習データに、様々なノイズ量の画像を含めることである。しかし、この方法では、ノイズに対するロバスト性が向上する代わりに、精度の最大値が低下するおそれがある。第2の方法は、異なるノイズ量ごとにニューラルネットワークを学習する方法である。しかし、この方法では、ノイズ量ごとに学習した結果を記憶する必要があるため、データ量が増大するおそれがある。
そこで本発明は、精度の低下とデータ量の増大を抑制して、ニューラルネットワークのノイズに対するロバスト性を向上させることが可能な画像処理方法等を提供することを目的とする。
本発明の一側面としての画像処理方法は、入力画像とノイズマップとを含む入力データを取得する第1の工程と、前記入力データをニューラルネットワークに入力することで、認識または回帰のタスクを実行する第2の工程とを有し、前記ノイズマップは、前記入力画像に対応するオプティカルブラック領域のノイズ量と、前記入力画像の信号値に応じたノイズ量とに基づいて生成される。
本発明の他の側面としての画像処理装置は、入力画像とノイズマップとを含む入力データを取得する取得手段と、前記入力データをニューラルネットワーク入力することで、認識または回帰のタスクを実行する処理手段とを有し、前記ノイズマップは、前記入力画像に対応するオプティカルブラック領域のノイズ量と、前記入力画像の信号値に応じたノイズ量とに基づいて生成される。
本発明の他の側面としてのプログラムは、前記画像処理方法をコンピュータに実行させる。
本発明の他の側面としての画像処理システムは、前記画像処理装置と、該画像処理装置と通信可能な制御装置とを含む画像処理システムであって、前記制御装置は、撮像画像に対する処理に関する要求を送信する手段を有し、前記画像処理装置は、前記要求に応じて前記撮像画像に対する処理を実行する手段を有する。
本発明の他の側面としての学習済みモデルの製造方法は、訓練画像およびノイズマップを含む入力データと、正解データとを取得する工程と、前記入力データと前記正解データとを用いて、認識または回帰のタスクを実行するためのニューラルネットワーク学習を行う工程とを有し、前記ノイズマップは、前記訓練画像に対応するオプティカルブラック領域のノイズ量と、前記訓練画像の信号値に応じたノイズ量とに基づく
本発明の他の目的及び特徴は、以下の実施形態において説明される。
本発明によれば、精度の低下とデータ量の増大を抑制して、ニューラルネットワークのノイズに対するロバスト性を向上させることが可能な画像処理方法等を提供することができる。
実施例1におけるニューラルネットワークの構成を示す図である。 実施例1における画像処理システムのブロック図である。 実施例1における画像処理システムの外観図である。 実施例1におけるウエイトの学習に関するフローチャートである。 実施例1における訓練画像と正解クラスマップの例を示す図である。 実施例1における推定クラスマップの生成に関するフローチャートである。 実施例2における画像処理システムのブロック図である。 実施例2における画像処理システムの外観図である。 実施例2におけるウエイトの学習に関するフローチャートである。 実施例2における入力画像とノイズ表現画像の生成に関する図である。 実施例2におけるニューラルネットワークの構成を示す図である。 実施例2における推定画像の生成に関するフローチャートである。 実施例3における画像処理システムのブロック図である。 実施例3における出力画像の生成に関するフローチャートである。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照符号を付し、重複する説明は省略する。
実施例の具体的な説明を行う前に、本発明の要旨を説明する。本発明は、ニューラルネットワークを用いた認識または回帰のタスクにおいて、ノイズに対するロバスト性を向上させる。ここで、ニューラルネットワークに入力される入力データをx(d次元のベクトル。dは自然数)とすると、認識とはベクトルxに対応するクラスyを求めるタスクである。例えば、画像中の被写体を人、犬、車などに分類するタスクや、顔画像から笑顔、泣き顔などの表情を認識するタスクなどが挙げられる。クラスyは一般に離散変数であり、セグメンテーションマップの生成などではベクトルにもなり得る。これに対して、回帰は、ベクトルxに対応する連続変数yを求めるタスクである。例えば、ノイズのある画像からノイズのない画像を推定するタスクや、ダウンサンプリングされた画像からダウンサンプリング前の高解像な画像を推定するタスクなどが挙げられる。
以下に述べる実施例では、ノイズのロバスト性を向上させるため、入力データとして、入力画像と、入力画像に対応するノイズ表現画像(ノイズマップ、または、ノイズの二次元分布情報)を用いる。ノイズ表現画像は、入力画像内のノイズ量を表す画像である。ノイズ表現画像は、入力画像に対応するオプティカルブラックに基づく画像、または入力画像を撮像した撮像素子のノイズ特性に基づく画像である。ノイズ表現画像と入力画像と合わせて入力することで、複数のノイズ量を混合した学習を行っても、ニューラルネットワークは入力画像のノイズ量を特定することができ、精度の低下を抑制しつつ、ノイズに対するロバスト性を向上することが可能である。
なお以下では、ニューラルネットワークのウエイトを学習する段階のことを学習フェーズとし、学習済みのウエイトで認識または回帰を行う段階のことを推定フェーズとする。
まず、本発明の実施例1における画像処理システムに関して説明する。実施例1においてニューラルネットワークは、画像中の人領域を検出する認識タスク(人か否かのセグメンテーション)を実行する。ただし、これに限定されず、その他の認識または回帰タスクにも同様に適用が可能である。
図2は、本実施例における画像処理システム100のブロック図である。図3は、画像処理システム100の外観図である。画像処理システム100は、学習装置101、撮像装置102、および、ネットワーク103を有する。学習装置101は、学習装置101は、記憶部111、取得部112、検出部113、および、更新部114を有し、人領域の検出を行うニューラルネットワークのウエイトを学習する。この学習の詳細に関しては、後述する。学習装置101で学習されたウエイトの情報は、記憶部111に記憶される。撮像装置102は、撮像画像の取得とニューラルネットワークによる人領域の検出を実行する。
撮像装置102は、光学系121と撮像素子122を有する。光学系121は、被写体空間から撮像装置102へ入射した光を集光する。撮像素子122は、光学系121を介して形成された光学像(被写体像)を受光して(光電変換して)撮像画像を取得する。撮像素子122は、例えばCCD(Charge Coupled Device)センサや、CMOS(Complementary Metal-Oxide Semiconductor)センサなどである。
画像処理部123は、取得部123aと検出部123bを有し、撮像画像の少なくとも一部を入力画像として、人領域の検出を実行する。この際、記憶部124に記憶されたウエイトの情報が用いられる。ウエイトの情報は、事前に有線または無線のネットワーク103を介して学習装置101から読み込んで、記憶部124に記憶されている。記憶されるウエイトの情報は、ウエイトの数値そのものでもよいし、符号化された形式でもよい。人領域の検出処理に関する詳細は後述する。画像処理部123は、人領域とその他の領域で異なる処理を実行し、出力画像を生成する。例えば、人領域以外にぼけを付加することで、ぼけ味のあるポートレート画像の生成などを行う。出力画像は、記録媒体125に保存される。或いは、撮像画像をそのまま記録媒体125に保存し、その後、画像処理部123が記録媒体125から撮像画像を読み込んで、人領域の検出を行ってもよい。記録媒体125に保存された出力画像は、ユーザの指示に従って表示部126に表示される。一連の動作は、システムコントローラ127によって制御される。
次に、図4を参照して、本実施例における学習装置101で実行されるウエイトの学習(学習済みモデルの製造)に関して説明する。図4は、ウエイトの学習に関するフローチャートである。図4の各ステップは、主に、学習装置101の取得部112、検出部113、または、更新部114により実行される。
まずステップS101において、取得部112は、1組以上の訓練画像と正解クラスマップ(正解のセグメンテーションマップ、正解データとも言う)、および、ノイズ表現画像を取得する。訓練画像は、ニューラルネットワークの学習フェーズにおける入力画像である。
図5は、訓練画像と正解クラスマップの例である。図5(A)は訓練画像の例を示し、図5(B)はそれに対応する正解クラスマップを示す。図5(B)中の白が人領域を表すクラスであり、グレーがそれ以外の領域を表すクラスである。本実施例において、ノイズ表現画像は、訓練画像に存在するノイズの標準偏差を信号値とする画像である。ただし本発明は、標準偏差に限定されるものではなく、ノイズ量を表現する散布度であれば、例えば分散などを用いても構わない。または、散布度の代わりにISO感度の値を用いてもよい。
推定フェーズにおいて未知の撮像シーンやノイズ量の画像に対しても、安定して人領域を検出できるように、学習フェーズでは様々な撮像シーンとノイズ量の訓練画像を複数使用する。ノイズ量の異なる複数の訓練画像を用意する第1の方法として、様々な撮像シーンの画像に対してシミュレーションでノイズを付与する方法が挙げられる。この場合、付与するために設定したノイズの標準偏差を取得し、各要素(画素)に標準偏差の値を持つノイズ表現画像を取得する。ノイズのうちショットノイズの成分は光量に依存するため、信号値(光量)の大きさによって、ノイズの標準偏差は変化する。撮像素子122のノイズ特性が既知であれば、学習と推定の両フェーズにおいて、光量に依存した標準偏差でノイズ表現画像を取得することが可能である。具体的には、入力画像または訓練画像の各画素における信号値を光量に換算し(必要であれば逆ガンマ補正などを実行する)、ノイズ表現画像の各画素に対して換算した光量に基づくノイズの標準偏差を格納する。ただし、入力画像と訓練画像には既にノイズが存在しているため、真の信号から算出した標準偏差からは少しずれた値となる。撮像素子122のノイズ特性が未知の場合、推定フェーズではオプティカルブラック領域(黒レベルの領域)からノイズの標準偏差を算出する。このため、学習フェーズのノイズ表現画像は、光量ゼロにおけるノイズの標準偏差を用いて取得する。
第2の方法は、様々な撮像シーンを、ISO感度を変更して撮像するか、異なる感度の撮像素子で撮像する方法である。この場合、撮像にノイズ特性が既知の撮像素子を用い、その既知のノイズ特性から訓練画像のノイズの標準偏差を取得する。或いは、訓練画像を撮像した際の撮像素子のオプティカルブラック領域の信号値から、光量ゼロに対するノイズの標準偏差を求める。ノイズ表現画像は、第1の方法と同様に、各画素の信号値が標準偏差の画像である。なお、訓練画像は、推定フェーズの入力画像と同じ形式である。推定フェーズの入力画像が未現像のRAW画像であれば、訓練画像も同様に未現像のRAW画像である。推定フェーズの入力画像が現像後の画像であれば、訓練画像も同様である。なお、推定フェーズの入力画像と訓練画像の画素数は、必ずしも一致しなくてよい。
続いて、図4のステップS102において、検出部(学習部)113は、訓練画像とノイズ表現画像をニューラルネットワークへ入力し、推定クラスマップを生成する。なお本実施例において、ニューラルネットワークは、図1に示されるU-Net(詳細は非特許文献1を参照)を使用するが、これに限定されるものではない。
入力データ201は、訓練画像とノイズ表現画像をチャンネル方向に連結(concatenation)したデータである。訓練画像は、RGB(Red,Green,Blue)の複数チャンネルを有していてもよい。ノイズ表現画像は、1チャンネルだけでも、訓練画像と同じチャンネル数を有していてもよい。訓練画像とノイズ表現画像の1チャンネルあたりの画素数(要素数)は同じである。ニューラルネットワークには様々なノイズ量の訓練画像が入力されるが、入力データにノイズ表現画像を含めることで、訓練画像のノイズ量をニューラルネットワークが特定することができる。このため、推定精度の低下を抑制しつつ、ノイズに対するロバスト性を確保することが可能である。
入力データは、必要に応じて正規化を行ってもよい。入力画像がRAW画像の場合、撮像素子やISO感度によって黒レベルが異なる場合がある。このため、入力画像の信号値から黒レベルを減算した後、ニューラルネットワークへ入力する。正規化に関しても、黒レベルを減算してから行うことが望ましい。図1中のConv.は1層以上の畳み込み層、Max Poolは最大値プーリング、Up Conv.はアップサンプリングを含む1層以上の畳み込み層、Concat.はチャンネル方向の連結を表す。学習の初回において、各畳み込み層のフィルタのウエイトは乱数で決定する。訓練画像に対応したU-Netの出力である推定クラスマップ202が算出される。
続いてステップS103において、更新部(学習部)114は、推定クラスマップと正解クラスマップから、ニューラルネットワークのウエイトを更新する。本実施例では、ロス関数として推定クラスマップと正解クラスマップのクロスエントロピーを使用するが、これに限定されるものではない。算出されたロス関数の値から、誤差逆伝播法(Backpropagation)などによってウエイトの更新を行う。
続いてステップS104において、更新部114は、ウエイトの学習が完了したか否かを判定する。学習の完了は、学習(ウエイトの更新)の反復回数が規定値に達したか否か、または、更新時のウエイトの変化量が規定値より小さいか否かなどにより判定することができる。学習が未完であると判定された場合、ステップS101へ戻り、1組以上の新たな訓練画像、ノイズ表現画像、および、正解クラス画像を取得する。一方、学習が完了した判定された場合、学習を終了し、ウエイトの情報を記憶部111に保存する。
次に、図6を参照して、本実施例における画像処理部123で実行される入力画像の人領域検出(推定クラスマップの生成、推定フェーズ)に関して説明する。図6は、推定クラスマップの生成に関するフローチャートである。図6の各ステップは、主に、画像処理部123の取得部123aまたは検出部123bにより実行される。
まずステップS201において、取得部123aは、入力画像と、入力画像に対応するノイズの標準偏差を取得する。入力画像は、撮像素子122で撮像された撮像画像の少なくとも一部である。ノイズの標準偏差は、撮像素子122のノイズ特性が既知の場合、撮像時の撮像条件(ISO感度など)に基づいて取得される。または、ノイズの標準偏差は、入力画像と同一の撮像条件におけるオプティカルブラック領域の信号値から算出してもよい。例えば、撮像画像が現像前のRAW画像の場合、撮像画像のうち被写体空間の情報が取得された領域を入力画像とし、光が遮断された領域を入力画像に対応するオプティカルブラック領域とする。オプティカルブラック領域の信号値のばらつきから、光量ゼロの際のノイズの標準偏差を求めることができる。
続いてステップS202において、取得部123aは、標準偏差に基づいてノイズ表現画像を生成する。ノイズ表現画像は、各画素の信号値が標準偏差の画像である。続いてステップS203において、検出部123bは、入力画像とノイズ表現画像をニューラルネットワークへ入力し、推定クラスマップを生成する。この際、図1のニューラルネットワークと学習フェーズで得られたウエイトが使用される。
本実施例によれば、精度の低下とデータ量の増大を抑制して、ノイズにロバストなセグメンテーションマップを生成することが可能な画像処理システムを実現することができる。
次に、本発明の実施例2における画像処理システムに関して説明する。本実施例において、ニューラルネットワークは、撮像画像の収差、回折によるぼけを補正する回帰タスク(デブラー)を実行する。ただし本発明は、これに限定されるものではなく、その他の認識または回帰タスクにも適用が可能である。
図7は、本実施例における画像処理システム300のブロック図である。図8は、画像処理システム300の外観図である。画像処理システム300は、学習装置301、撮像装置302、画像推定装置303、表示装置304、記録媒体305、出力装置306、および、ネットワーク307を有する。
学習装置301は、記憶部301a、取得部301b、生成部301c、および、更新部301dを有する。撮像装置302は、光学系302aと撮像素子302bを有する。撮像素子302bで撮像された撮像画像には、光学系302aの収差や回折によるぼけと、撮像素子302bによるノイズが存在する。画像推定装置303は、記憶部303a、取得部303b、および、生成部303cを有し、撮像画像の少なくとも一部である入力画像に対してぼけ補正を行い、推定画像を生成する。ぼけ補正にはニューラルネットワークを使用し、そのウエイトの情報は記憶部303aから読み出される。ウエイトは学習装置301で学習されたものであり、画像推定装置303は、事前にネットワーク307を介して記憶部301aからウエイトの情報を読み出し、記憶部303aに記憶している。なお、ウエイトの学習、およびウエイトを用いたぼけ補正処理に関する詳細は、後述する。画像推定装置303は、推定画像に対して現像処理を行い、出力画像を生成する。出力画像は、表示装置304、記録媒体305、出力装置306の少なくともいずれかに出力される。表示装置304は、例えば液晶ディスプレイやプロジェクタなどである。ユーザは表示装置304を介して、処理途中の画像を確認しながら編集作業などを行うことができる。記録媒体305は、例えば半導体メモリ、ハードディスク、ネットワーク上のサーバ等である。出力装置306は、プリンタなどである。
次に、図9を参照して、学習装置301で実行されるウエイトの学習に関して説明する。図9は、ウエイトの学習に関するフローチャートである。図9の各ステップは、主に、学習装置301の取得部301b、生成部301c、または、更新部301dにより実行される。
まずステップS301において、取得部301bは、一組以上のソース画像と撮像条件を取得する。収差、回折によるぼけ補正の学習には、ぼけ画像(第1の訓練画像)とぼけのない画像(正解画像)のペアが必要になる。実施例2では、このペアをソース画像から撮像シミュレーションによって生成する。ただし、これに限定されるものではなく、収差、回折によるぼけを補正したいレンズとそれよりも高性能なレンズで同一被写体を撮像し、前記ペアを用意してもよい。
なお本実施例では、RAW画像での学習とぼけ補正を行うが、本発明はこれに限定されるものではなく、現像後の画像でもよい。ソース画像はRAW画像であり、撮像条件はソース画像を被写体として撮像シミュレーションを行う際のパラメータである。パラメータは、撮像に使用する光学系、光学系のステート(ズーム、絞り、合焦距離)、像高、光学ローパスフィルタの有無と種類、撮像素子のノイズ特性、画素ピッチ、ISO感度、カラーフィルタ配列、ダイナミックレンジ、黒レベルなどである。実施例2では、光学系ごとに学習を行う。特定の光学系に対して、ステートや像高、画素ピッチやISO感度などの組み合わせを複数設定して、異なる撮像条件での第1の訓練画像と正解画像(正解データ)のペアを生成する。
続いてステップS302において、生成部301cは、撮像条件に基づいて、ソース画像から第1の訓練画像および第2の訓練画像と正解画像を生成する。第1の訓練画像と正解画像はそれぞれ、ソース画像に対して光学系で発生する収差、回折によるぼけを付与した画像と、付与しない画像である。第1の訓練画像には、ノイズが付与される。正解画像には必要に応じて、ノイズを付与する。正解画像にノイズを付与しない、または第1の訓練画像のノイズと相関のないノイズを付与すると、ニューラルネットワークではぼけ補正とデノイジングが学習される。正解画像に対して、第1の訓練画像のノイズと相関のあるノイズを付与すると、ノイズ変化を抑制したぼけ補正が学習される。
更に本実施例では、第1の訓練画像に対してWienerフィルタを使用し、ぼけをある程度補正した第2の訓練画像(学習フェーズにおける中間ぼけ補正画像)を生成する。Wienerフィルタは、第1の訓練画像に付与したぼけから算出されたフィルタである。ただし、補正方法はWienerフィルタに限定されるものではなく、その他逆フィルタベースの手法や、Richardson-Lucy法などを用いてもよい。第2の訓練画像も使用することで、ニューラルネットワークのぼけの変化に対するぼけ補正のロバスト性を向上させることができる。また、必要に応じて、撮像シミュレーションの際にソース画像を縮小する。ソース画像をCG(Computer Graphics)でなく実写で用意した場合、何らかの光学系を介して撮像された画像である。このため、既に収差、回折によるぼけが存在している。しかし、縮小を行うことによって、ぼけの影響を小さくし、高周波まで存在する正解画像を生成することができる。
続いてステップS303において、生成部301cは、撮像条件に基づいてノイズ表現画像を生成する。本実施例では、オプティカルブラック領域(黒レベルの領域)の信号値をシミュレーションによって再現することで、ノイズ表現画像を生成する。撮像条件で設定された黒レベルに対して、ISO感度に対応するノイズを付与してオプティカルブラックの信号値を生成する。
図10は、入力画像とノイズ表現画像の生成に関する図である。推定フェーズでは、図10に示されるように撮像画像401のオプティカルブラック領域403から、1つ以上の部分オプティカルブラック画像404を抽出し、配列することでノイズ表現画像405を生成する。このため、学習フェーズでも同様の方法でノイズ表現画像を生成することが好ましい。抽出する部分オプティカルブラック画像の数をK(Kは自然数)、部分オプティカルブラック画像の画素数をm×n(k=1,…,K)とする。このとき、本ステップでもm×nのオプティカルブラックをK個生成しそれを配列することで、ノイズ表現画像を生成する。ノイズ表現画像の画素数は、第1及び第2の訓練画像と同じである。なお、図9のステップS302とステップS303は、どちらを先に実行してもよい。
続いてステップS304において、生成部301cは、第1の訓練画像および第2の訓練画像とノイズ表現画像をニューラルネットワークに入力し、推定画像(ぼけ補正画像)を生成する。図11は、本実施例におけるニューラルネットワークの構成を示す図である。本実施例では、図11に示されるニューラルネットワークを使用するが、これに限定されるものではなく、例えばGAN(Generative Adversarial Network)などを用いてもよい。入力データ511は、第1の訓練画像501、第2の訓練画像、および、ノイズ表現画像をチャンネル方向に連結したデータである。チャンネル方向の連結順に制限はない。Conv.は1層以上の畳み込み層、Deconv.は、1層以上の逆畳み込み層を表す。第2、第3、第4のスキップコネクション522、523、524は、2つの特徴マップに関して要素ごとの和を取る。または、チャンネル方向に連結してもよい。第1のスキップコネクション521は、第1の訓練画像501(または、第2の訓練画像でもよい)と最終層から出力された残差成分の和を取り、推定画像512を得る。ただし、スキップコネクションの数は、図11に限定されるものではない。ぼけ補正のような画像の高解像化や高コントラスト化では、被写体だけでなく、ノイズも強調してしまう弊害が起こりやすい。しかし、ノイズ表現画像を入力することで、ニューラルネットワークが被写体とノイズを分離しやすくなり、ノイズにロバストな高解像化、または高コントラスト化が実現できる。
続いてステップS305において、更新部301dは、推定画像と正解画像からニューラルネットワークのウエイトを更新する。本実施例では、推定画像と正解画像における信号値の差のユークリッドノルムをロス関数とする。ただし、ロス関数はこれに限定されるものではない。続いてステップS306において、更新部301dは、学習が完了したか否かを判定する。学習が未完である場合、ステップS301へ戻り、新たな一組以上のソース画像と撮像条件を取得する。一方、学習が完了した場合、ウエイトの情報を記憶部301aに記憶する。
次に、図12を参照して、画像推定装置303で実行される入力画像の収差、回折によるぼけの補正(推定画像の生成)に関して説明する。図12は、推定画像の生成に関するフローチャートである。図12の各ステップは、主に、画像推定装置303の取得部303bと生成部303cにより実行される。
まずステップS401において、取得部303bは、撮像画像から入力画像と、入力画像に対応するオプティカルブラック領域を取得する。本実施例2では、図10に示されるように、RAW画像である撮像画像401から、被写体空間の情報が存在する領域を入力画像402として、光の入射しない領域をオプティカルブラック領域403として取得する。ただし、オプティカルブラック領域は、入力画像と同一撮像条件の別の画像から取得することもできる。
続いてステップS402において、生成部303cは、入力画像から中間ぼけ補正画像を生成する。光学系302aの収差、回折によるぼけを補正するWienerフィルタの情報を記憶部303aから呼び出し、入力画像に作用させることで、中間ぼけ補正画像を生成する。入力画像は像高ごとにぼけが異なるため、シフトバリアントな補正を行う。
続いてステップS403において、取得部303bは、オプティカルブラック領域から部分オプティカルブラック画像を抽出する。図10のように、オプティカルブラック領域403から、1つ以上の部分オプティカルブラック画像404を抽出する。抽出する部分オプティカルブラック画像の数はK、各部分オプティカルブラック画像の画素数はm×nである。
続いてステップS404において、生成部303cは、入力画像の画素数と部分オプティカルブラック画像に基づいて、ノイズ表現画像を生成する。図10に示されるように、部分オプティカルブラック画像404を配列してノイズ表現画像405を生成する。入力画像402以上の画素数になるように部分オプティカルブラック画像404を配列し、入力画像402の画素数だけ抜き出すことで、ノイズ表現画像405を生成する。部分オプティカルブラック画像404を配列する際、個々を反転や回転をしてから配列してもよい。
続いてステップS405において、生成部303cは、入力画像と中間ぼけ補正画像とノイズ表現画像をニューラルネットワークへ入力し、推定画像を生成する。ニューラルネットワークは、図11に示される構成を使用し、学習時と同じ順番でチャンネル方向に入力画像(第1の訓練画像に相当)、中間ぼけ補正画像(第2の訓練画像に相当)、ノイズ表現画像を連結した入力データを入力する。また、記憶部303aから光学系302aに対応したウエイトの情報を読み出し、推定画像を生成する。ニューラルネットワークへの入力時に正規化や黒レベルの減算を行っている場合は、推定画像に対して信号値のスケールを戻す処理と黒レベルの加算を行う。
本実施例によれば、精度の低下とデータ量の増大を抑制して、収差や回折によるぼけの補正をノイズに対してロバストに実行することが可能な画像処理システムを実現することができる。
このように各実施例の画像処理方法は、第1の工程と第2の工程とを有する。第1の工程は、入力画像と、入力画像のノイズ量を表すノイズマップとを含む入力データを取得する工程(S201、S202;S401~S404)である。第2の工程は、入力データをニューラルネットワークへ入力し、認識または回帰のタスクを実行する工程(S203;S405)である。
次に、本発明の実施例3における画像処理システムに関して説明する。本実施例の画像処理システムは、画像推定装置に対して画像処理の対象である撮像画像を送信し処理済みの出力画像を画像推定装置から受信する処理装置(コンピュータ)を有する点で、実施例1および実施例2と異なる。
図13は、本実施例における画像処理システム600のブロック図である。画像処理システム600は、学習装置601、撮像装置602、画像推定装置603、処理装置(コンピュータ)604を有する。学習装置601および画像推定装置603は、例えばサーバである。コンピュータ604は、例えばユーザ端末(パーソナルコンピュータまたはスマートフォン)である。コンピュータ604は、ネットワーク605を介して画像推定装置603に接続されている。画像推定装置603はネットワーク606を介して学習装置601に接続されている。すなわち、コンピュータ604と画像推定装置603は通信可能に構成され、画像推定装置603と学習装置601は通信可能に構成されている。コンピュータ604は第1の装置に相当し、画像推定装置603は第2の装置に相当する。なお学習装置601の構成は、実施例2の学習装置301と同様のため説明を省略する。撮像装置602の構成は、実施例2の撮像装置302と同様のため説明を省略する。
画像推定装置603は、記憶部603a、取得部603b、生成部603c、通信部(受信手段、送信手段)603dを有する。記憶部603a、取得部603b、生成部603cのそれぞれは、実施例2の画像推定装置303の記憶部103a、取得部103b、生成部103cと同様である。通信部603dはコンピュータ604から送信される要求を受信する機能と、画像推定装置603によって生成された出力画像をコンピュータ604に送信する機能を有する。
コンピュータ604は、通信部(送信手段)604a、表示部604b、画像処理部604c、記録部604dを有する。通信部604aは撮像画像に対する処理を画像推定装置603に実行させるための要求を画像推定装置603に送信する機能と、画像推定装置603によって処理された出力画像を受信する機能を有する。表示部604bは種々の情報を表示する機能を有する。表示部604bによって表示される情報は、例えば画像推定装置603に送信する撮像画像と、画像推定装置603から受信した出力画像を含む。画像処理部604cは画像推定装置603から受信した出力画像に対してさらに画像処理を施す機能を有する。記録部604dは、撮像装置602から取得した撮像画像、画像推定装置603から受信した出力画像等を記録する。
次に、図14を参照して、本実施例における画像処理について説明する。本実施例における画像処理は、実施例2に説明したぼけ補正(デブラー)処理(図12)と同等である。図14は、出力画像の生成に関するフローチャートである。図14に示した画像処理は、コンピュータ604を介してユーザにより画像処理開始の指示が成されたことを契機として開始される。まず、コンピュータ604における動作について説明する。
ステップS701において、コンピュータ604は撮像画像に対する処理の要求を画像推定装置603へ送信する。なお、処理対象である撮像画像を画像推定装置603に送信する方法は問わない。例えば、撮像画像はステップS701と同時にコンピュータ604から画像推定装置603にアップロードされても良いし、ステップS701以前に画像推定装置603にアップロードされていても良い。なお、コンピュータ604に記録された画像でなく、撮像画像は画像指定装置603とは異なるサーバ上に記憶された画像でも良い。なお、ステップS701において、コンピュータ604は撮像画像に対する処理の要求と共に、ユーザを認証するID情報等を送信しても良い。ステップS702において、コンピュータ604は画像推定装置603内で生成された出力画像を受信する。出力画像は実施例2と同様に撮像画像に対してぼけ補正が成された推定画像である。
次に、画像推定装置603の動作について説明する。ステップS801において、画像推定装置603はコンピュータ604から送信された撮像画像に対する処理の要求を受信する。画像推定装置603は、撮像画像に対する処理(ぼけ補正処理)が指示されたと判断し、ステップS802以降の処理を実行する。ステップS802~S806は、実施例2のステップS401~S405と同様である。ステップS807において、画像推定装置603は回帰タスクの結果である推定画像を出力画像としてコンピュータ604へ送信する。
本実施例は、実施例2のぼけ補正処理を行うものとして説明したが、実施例1の人領域検出(図6)においても同様に適用することができる。なお、本実施例では、実施例2のS401からS405に相当する処理を全て画像推定装置603で行うことを説明したが、本発明はこれに限定されない。例えば、コンピュータ604内で実施例2のS401からS404(本実施例のステップS802からステップS806)のうちの1つ以上を行い、その結果をコンピュータ604から画像指定装置603へ送信するようにしても良い。
以上のように、本実施例のように、画像推定装置603を、画像推定装置603と通信可能に接続されたコンピュータ604を用いて制御するように構成しても良い。
好ましくは、ノイズマップは、入力画像に対応するオプティカルブラック領域(黒レベルの領域)に基づく。また好ましくは、画像処理方法は、入力画像に対応するオプティカルブラック領域を取得する工程を有する。また好ましくは、画像処理方法は、オプティカルブラック領域の少なくとも一部である部分オプティカルブラック画像を1つ以上抽出する工程を有する。また好ましくは、画像処理方法は、入力画像の画素数と部分オプティカルブラック画像とに基づいて、ノイズマップを生成する工程を有する。より好ましくは、ノイズマップは、部分オプティカルブラック画像を配列することにより生成される。
好ましくは、画像処理方法は、入力画像に対応するオプティカルブラック領域を取得する工程と、オプティカルブラック領域における信号値の散布度(分散、標準偏差)を算出する工程と、散布度に基づいてノイズマップを生成する工程とを有する。また好ましくは、入力画像とオプティカルブラック領域は、同一の撮像画像から抽出される。また好ましくは、入力画像と前記ノイズマップの1つのチャンネル(R、G、Bチャネルの各々)における画素数は、互いに等しい。また好ましくは、入力データは、入力画像とノイズマップをチャンネル方向に連結したデータを含む。また好ましくは、画像処理方法は、入力データの信号値から黒レベルを減算した後、入力データをニューラルネットワークへ入力する。また好ましくは、タスクは、画像の高解像化または高コントラスト化である。
また各実施例において、画像処理装置(画像処理部123、画像推定装置303)は、取得手段(取得部123a、303b、生成部303c)および処理手段(検出部123b、生成部303c)を有する。取得手段は、入力画像と、入力画像のノイズ量を表すノイズマップと、を含む入力データを取得する。処理手段は、入力データをニューラルネットワークへ入力し、認識または回帰のタスクを実行する。好ましくは、画像処理装置は、ニューラルネットワークで使用するウエイトの情報を記憶する手段(記憶部124、303a)を有する。
また各実施例において、画像処理システムは、第1の装置と、第1の装置と通信可能な第2の装置を含む。第1の装置は、撮像画像に対する処理を第2の装置に実行させるための要求を送信する送信手段を有する。第2の装置は、受信手段、取得手段、処理手段、および、送信手段を有する。受信手段は、送信手段によって送信された要求を受信する。取得手段は、撮像画像と、撮像画像のノイズ量を表すノイズマップとを含む入力データを取得する。処理手段は、入力データをニューラルネットワークへ入力し、認識または回帰のタスクを実行する。送信手段は、タスクの結果を送信する。
また各実施例において、学習済みモデルの製造方法は、取得工程と学習工程とを有する。取得工程は、訓練画像および訓練画像のノイズ量を表すノイズマップを含む入力データと、正解データとを取得する。学習工程は、入力データと正解データとを用いて、認識または回帰のタスクを実行するためのニューラルネットワークを学習する
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、精度の低下とデータ量の増大を抑制して、ニューラルネットワークのノイズに対するロバスト性を向上させることが可能な画像処理方法、画像処理装置、プログラム、画像処理システム、および学習済みモデルの製造方法を提供することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
123 画像処理部(画像処理装置)
123a 取得部(取得手段)
123b 検出部(処理手段)
303 画像推定装置(画像処理装置)
303b 取得部(取得手段)
303c 生成部(取得手段、処理手段)

Claims (18)

  1. 入力画像とノイズマップとを含む入力データを取得する第1の工程と、
    前記入力データをニューラルネットワーク入力することで、認識または回帰のタスクを実行する第2の工程とをし、
    前記ノイズマップは、前記入力画像に対応するオプティカルブラック領域のノイズ量と、前記入力画像の信号値に応じたノイズ量とに基づいて生成されることを特徴とする画像処理方法。
  2. 前記入力画像の信号値に応じたノイズ量は、前記入力画像におけるショットノイズの量であることを特徴とする請求項1に記載の画像処理方法。
  3. 前記ノイズマップは、前記オプティカルブラック領域の少なくとも一部である部分オプティカルブラック画像に基づいて生成されることを特徴とする請求項1または2に記載の画像処理方法。
  4. 前記ノイズマップは、前記部分オプティカルブラック画像を配列することにより生成されることを特徴とする請求項3に記載の画像処理方法。
  5. 記ノイズマップは、前記オプティカルブラック領域における信号値の散布度に基づいて生成されることを特徴とする請求項1乃至4のいずれか一項に記載の画像処理方法。
  6. 前記入力画像と前記オプティカルブラック領域は、同一の撮像画像から抽出されることを特徴とする請求項乃至5のいずれか一項に記載の画像処理方法。
  7. 前記入力画像及び前記ノイズマップのチャンネルごとの画素数は、互いに等しいことを特徴とする請求項1乃至6のいずれか1項に記載の画像処理方法。
  8. 前記入力データは、前記入力画像と前記ノイズマップをチャンネル方向に連結することで得られたデータを含むことを特徴とする請求項1乃至7のいずれか一項に記載の画像処理方法。
  9. 前記第2の工程において、前記入力データの信号値から黒レベルを減算した後、前記入力データを前記ニューラルネットワーク入力することを特徴とする請求項1乃至8のいずれか一項に記載の画像処理方法。
  10. 前記タスクは、前記入力画像のぼけ補正、高解像化、及び高コントラスト化のいずれかを含むことを特徴とする請求項1乃至9のいずれか一項に記載の画像処理方法。
  11. 入力画像とノイズマップとを含む入力データを取得する取得手段と、
    前記入力データをニューラルネットワーク入力することで、認識または回帰のタスクを実行する処理手段とを有し、
    前記ノイズマップは、前記入力画像に対応するオプティカルブラック領域のノイズ量と、前記入力画像の信号値に応じたノイズ量とに基づいて生成されることを特徴とする画像処理装置。
  12. 前記ニューラルネットワークウエイトの情報を記憶する手段を更に有することを特徴とする請求項11に記載の画像処理装置。
  13. 請求項1乃至10のいずれか1項に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。
  14. 請求項11又は12に記載の画像処理装置と、該画像処理装置と通信可能な制御装置を含む画像処理システムであって、
    前記制御装置は、撮像画像に対する処理に関する要求を送信する手段を有し、
    前記画像処理装置は、前記要求に応じて前記撮像画像に対する処理を実行する手段を有することを特徴とする画像処理システム。
  15. 訓練画像およびノイズマップを含む入力データと、正解データとを取得する工程と、
    前記入力データと前記正解データとを用いて、認識または回帰のタスクを実行するためのニューラルネットワーク学習を行う工程とをし、
    前記ノイズマップは、前記訓練画像に対応するオプティカルブラック領域のノイズ量と、前記訓練画像の信号値に応じたノイズ量とに基づくことを特徴とする画像処理方法。
  16. 請求項15に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。
  17. 訓練画像およびノイズマップを含む入力データと、正解データとを取得する工程と、
    前記入力データと前記正解データとを用いて、認識または回帰のタスクを実行するためのニューラルネットワーク学習を行う工程とを有し、
    前記ノイズマップは、前記訓練画像に対応するオプティカルブラック領域のノイズ量と、前記訓練画像の信号値に応じたノイズ量とに基づくことを特徴とする学習済みモデルの製造方法。
  18. 訓練画像およびノイズマップを含む入力データと、正解データとを取得する取得部と、
    前記入力データと前記正解データとを用いて、認識または回帰のタスクを実行するためのニューラルネットワーク学習を行う学習部とをし、
    前記ノイズマップは、前記訓練画像に対応するオプティカルブラック領域のノイズ量と、前記訓練画像の信号値に応じたノイズ量とに基づくことを特徴とする画像処理装置。
JP2019039088A 2019-03-05 2019-03-05 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法 Active JP7297470B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019039088A JP7297470B2 (ja) 2019-03-05 2019-03-05 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
US16/808,484 US11195055B2 (en) 2019-03-05 2020-03-04 Image processing method, image processing apparatus, storage medium, image processing system, and manufacturing method of learnt model
EP20160909.6A EP3706042B1 (en) 2019-03-05 2020-03-04 Image processing method, image processing apparatus, program, image processing system, and manufacturing method of learnt model
CN202010141298.3A CN111669522A (zh) 2019-03-05 2020-03-04 图像处理方法、装置、系统、存储介质和学习模型制造法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019039088A JP7297470B2 (ja) 2019-03-05 2019-03-05 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法

Publications (2)

Publication Number Publication Date
JP2020144488A JP2020144488A (ja) 2020-09-10
JP7297470B2 true JP7297470B2 (ja) 2023-06-26

Family

ID=69770611

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019039088A Active JP7297470B2 (ja) 2019-03-05 2019-03-05 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法

Country Status (4)

Country Link
US (1) US11195055B2 (ja)
EP (1) EP3706042B1 (ja)
JP (1) JP7297470B2 (ja)
CN (1) CN111669522A (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110428399B (zh) * 2019-07-05 2022-06-14 百度在线网络技术(北京)有限公司 用于检测图像的方法、装置、设备和存储介质
US11983853B1 (en) 2019-10-31 2024-05-14 Meta Plattforms, Inc. Techniques for generating training data for machine learning enabled image enhancement
KR20220028962A (ko) * 2020-08-31 2022-03-08 삼성전자주식회사 이미지 개선 방법, 이미지 개선 장치, 그 장치의 학습 방법 및 학습 장치
KR20220084578A (ko) * 2020-12-14 2022-06-21 에스케이하이닉스 주식회사 이미지 센싱 장치
WO2023276327A1 (ja) * 2021-06-29 2023-01-05 浜松ホトニクス株式会社 光学画像処理方法、機械学習方法、学習済みモデル、機械学習の前処理方法、光学画像処理モジュール、光学画像処理プログラム、及び光学画像処理システム
WO2023276326A1 (ja) * 2021-06-29 2023-01-05 浜松ホトニクス株式会社 光学画像処理方法、機械学習方法、学習済みモデル、機械学習の前処理方法、光学画像処理モジュール、光学画像処理プログラム、及び光学画像処理システム
CN113591832B (zh) * 2021-08-20 2024-04-05 杭州数橙科技有限公司 图像处理模型的训练方法、文档图像处理方法及设备
JP2024007231A (ja) * 2022-07-05 2024-01-18 キヤノン株式会社 画像処理方法、画像処理装置、プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011188394A (ja) 2010-03-11 2011-09-22 Panasonic Corp 撮像装置
JP2012150730A (ja) 2011-01-20 2012-08-09 Panasonic Corp 特徴抽出装置、特徴抽出方法、特徴抽出プログラム、および画像処理装置
JP2018206382A (ja) 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
JP2019208990A (ja) 2018-06-07 2019-12-12 キヤノンメディカルシステムズ株式会社 医用画像診断装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006042258A (ja) * 2004-07-30 2006-02-09 Canon Inc 撮像装置及びその制御方法
JP4961161B2 (ja) * 2006-04-27 2012-06-27 株式会社日立ハイテクノロジーズ 検査装置
JP4616794B2 (ja) * 2006-05-18 2011-01-19 富士フイルム株式会社 画像データのノイズ低減装置およびその制御方法
US8068152B2 (en) * 2008-06-27 2011-11-29 Altasens, Inc. Pixel or column fixed pattern noise mitigation using partial or full frame correction
JP5315158B2 (ja) * 2008-09-12 2013-10-16 キヤノン株式会社 画像処理装置及び画像処理方法
CN103843033B (zh) * 2011-09-30 2015-11-25 富士胶片株式会社 图像处理设备和方法以及程序
CN103198457A (zh) * 2013-03-25 2013-07-10 江南大学 一种基于自适应神经模糊推理系统的图像噪声检测方法
CN103927723A (zh) * 2014-04-18 2014-07-16 江南大学 基于神经模糊系统和边缘检测的图像滤波方法
JP6440303B2 (ja) 2014-12-02 2018-12-19 エヌ・ティ・ティ・コムウェア株式会社 対象認識装置、対象認識方法、およびプログラム
JP6581068B2 (ja) * 2016-11-11 2019-09-25 株式会社東芝 画像処理装置、画像処理方法、プログラム、運転制御システム、および、車両
CN109285129A (zh) * 2018-09-06 2019-01-29 哈尔滨工业大学 基于卷积神经网络的图像真实噪声去除系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011188394A (ja) 2010-03-11 2011-09-22 Panasonic Corp 撮像装置
JP2012150730A (ja) 2011-01-20 2012-08-09 Panasonic Corp 特徴抽出装置、特徴抽出方法、特徴抽出プログラム、および画像処理装置
JP2018206382A (ja) 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
JP2019208990A (ja) 2018-06-07 2019-12-12 キヤノンメディカルシステムズ株式会社 医用画像診断装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Kai Zhang, 外1名,"FFDNet: Toward a Fast and Flexible Solution for CNN-Based Image Denoising",IEEE Transactions on Image Processing,米国,2018年05月25日,p.4608-4622
飯塚修平,"TensorFlow.jsのメリットを活かした開発",SoftwareDesign,日本,(株)技術評論社,2018年09月18日,第335号,p.76-83

Also Published As

Publication number Publication date
US11195055B2 (en) 2021-12-07
CN111669522A (zh) 2020-09-15
EP3706042A1 (en) 2020-09-09
EP3706042B1 (en) 2024-10-02
US20200285901A1 (en) 2020-09-10
JP2020144488A (ja) 2020-09-10

Similar Documents

Publication Publication Date Title
JP7297470B2 (ja) 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
JP7362284B2 (ja) 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
KR102574141B1 (ko) 이미지 디스플레이 방법 및 디바이스
JP7258604B2 (ja) 画像処理方法、画像処理装置、プログラム、および学習済みモデルの製造方法
US11694310B2 (en) Image processing method, image processing apparatus, image processing system, and manufacturing method of learnt weight
CN111402146B (zh) 图像处理方法以及图像处理装置
CN110557584B (zh) 图像处理方法及装置、计算机可读存储介质
JP2019121252A (ja) 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体
US11967040B2 (en) Information processing apparatus, control method thereof, imaging device, and storage medium
CN114359647A (zh) 图像处理方法和装置、训练模型产生方法以及学习装置
US20150161771A1 (en) Image processing method, image processing apparatus, image capturing apparatus and non-transitory computer-readable storage medium
JP7443030B2 (ja) 学習方法、プログラム、学習装置、および、学習済みウエイトの製造方法
WO2022215375A1 (ja) 画像処理方法、機械学習モデルの製造方法、画像処理装置、画像処理システム、及びプログラム
JP7009219B2 (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体
US11995153B2 (en) Information processing apparatus, information processing method, and storage medium
US20240013362A1 (en) Image processing method, image processing apparatus, learning apparatus, manufacturing method of learned model, and storage medium
US20240087086A1 (en) Image processing method, image processing apparatus, program, trained machine learning model production method, processing apparatus, and image processing system
WO2022014148A1 (ja) 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、および、画像処理システム
JP2023116364A (ja) 画像処理方法、画像処理装置、画像処理システム、およびプログラム
JP2021190814A (ja) 学習方法、画像処理方法、およびプログラム
JP2024057751A (ja) 画像処理方法、画像処理装置、及びプログラム
JP2024137693A (ja) 画像処理方法、画像処理装置、学習済みモデルの製造方法、学習装置、画像処理システム、プログラム、および記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230614

R151 Written notification of patent or utility model registration

Ref document number: 7297470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151