JP2020086891A - 画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体 - Google Patents

画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体 Download PDF

Info

Publication number
JP2020086891A
JP2020086891A JP2018219876A JP2018219876A JP2020086891A JP 2020086891 A JP2020086891 A JP 2020086891A JP 2018219876 A JP2018219876 A JP 2018219876A JP 2018219876 A JP2018219876 A JP 2018219876A JP 2020086891 A JP2020086891 A JP 2020086891A
Authority
JP
Japan
Prior art keywords
image
disturbance
images
image processing
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018219876A
Other languages
English (en)
Other versions
JP7246900B2 (ja
Inventor
良範 木村
Yoshinori Kimura
良範 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018219876A priority Critical patent/JP7246900B2/ja
Priority to US16/688,150 priority patent/US11488279B2/en
Publication of JP2020086891A publication Critical patent/JP2020086891A/ja
Application granted granted Critical
Publication of JP7246900B2 publication Critical patent/JP7246900B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/60Memory management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30192Weather; Meteorology

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】高精度に擾乱の強度を測定可能な画像処理装置を提供する。【解決手段】画像処理装置(100)は、擾乱により劣化した時間的に異なる複数の画像を取得する画像取得部(101)と、学習済みのネットワークパラメータを取得するパラメータ取得部(102)と、ネットワークパラメータとニューラルネットワークとを用いて、複数の画像から擾乱の強度を測定する測定部(103)とを有する。【選択図】図1

Description

本発明は、畳み込みニューラルネット(Convolutional Neural Network:CNN)を用いて、高精度に擾乱の強度を測定する画像処理装置に関する。
従来、擾乱(大気ゆらぎ)による画像劣化を、画像処理により回復する方法が提案されている。非特許文献1には、擾乱による動画の各フレームの位置ずれを補正し、各フレームの場所ごとに異なるぼけを補正した後、ブラインドデコンボリューションでぼけを除去することで、擾乱による画像劣化を回復する方法が開示されている。
Xiang Zhu、Peyman Milanfar、「Removing atmospheric turbulence via space−invariant deconvolution」、IEEE Transactions on Pattern Analysis and Machine Intelligence、vol.35、no.1、2016、pp.157−170 Xia−Jiao Mao、Chunhua Shen、Yu−Bin Yang、「Image restoration using convolutional auto−encoders with symmetric skip connections」、arXiv:1606.08921、2016 Xavier Glorot、Yoshua Bengio、「Understanding the difficulty of training deep feedforward neural networks」、Proceedings of the 13th International Conference on Artificial Intelligence and Statistics、2010、pp.249−256
しかしながら、非特許文献1に開示された方法では、大気ゆらぎを除去することはできるが、大気ゆらぎに起因する画像劣化度合いである、大気ゆらぎの強度を測定することはできない。大気ゆらぎ動画からの、非剛体レジストレーションの変形ベクトルの推定を、擾乱の強度測定と考えることもできるが、動画中に移動物体がある場合には位置ずれ補正が困難であるため、高精度に変形ベクトルを推定することはできない。
そこで本発明は、高精度に擾乱の強度を測定可能な画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することを目的とする。
本発明の一側面としての画像処理装置は、擾乱により劣化した時間的に異なる複数の画像を取得する画像取得部と、学習済みのネットワークパラメータを取得するパラメータ取得部と、前記ネットワークパラメータとニューラルネットワークとを用いて、前記複数の画像から前記擾乱の強度を測定する測定部とを有する。
本発明の他の側面としての画像処理システムは、クライアント装置と、前記クライアント装置にネットワークを介して接続されているサーバ装置とを有する画像処理システムであって、前記クライアント装置は、擾乱により劣化した時間的に異なる複数の画像を前記サーバ装置へ出力する画像出力部を有し、前記サーバ装置は、学習済みのネットワークパラメータを取得するパラメータ取得部と、前記ネットワークパラメータとニューラルネットワークとを用いて、前記複数の画像から前記擾乱の強度を測定する測定部と、前記擾乱の強度を前記クライアント装置へ出力する擾乱強度出力部とを有する。
本発明の他の側面としての撮像装置は、撮像素子と前記画像処理装置とを有する。
本発明の他の側面としての画像処理方法は、擾乱により劣化した時間的に異なる複数の画像を取得する画像取得ステップと、学習済みのネットワークパラメータを取得するパラメータ取得ステップと、前記ネットワークパラメータとニューラルネットワークとを用いて、前記複数の画像から前記擾乱の強度を測定する測定ステップとを有する。
本発明の他の側面としてのプログラムは、前記画像処理方法をコンピュータに実行させる。
本発明の他の側面としての記憶媒体は、前記プログラムを記憶している。
本発明の他の目的及び特徴は、以下の実施形態において説明される。
本発明によれば、高精度に擾乱の強度を測定可能な画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。
本実施形態における画像処理装置のブロック図である。 本実施形態における画像処理システムの構成図である。 本実施形態における撮像装置の構成図である。 本実施形態における画像処理システムのブロック図である。 本実施形態における画像処理方法のフローチャートである。 実施例1におけるネットワーク構造を示す図である。 実施例1における数値計算結果を示す図である。 実施例2におけるネットワーク構造を示す図である。 実施例2における数値計算結果を定性的に示す図である。 実施例2における数値計算結果を定量的に示す図である。
以下、本発明の実施形態について、図面を参照しながら詳細に説明する。
まず、擾乱について説明する。撮影画像は、撮像装置と被写体との間に存在する媒質の擾乱(turbulence)により劣化する。例えば、炎天下における撮影や遠方の被写体を撮影する場合、大気のゆらぎ(擾乱)によって撮影画像は劣化する。また、例えば水上から水底の被写体を撮影する場合、水のゆらぎ(擾乱)によって撮影画像は劣化する。
媒質の擾乱による撮影画像の劣化は、媒質の屈折率が場所や時間ごとに変化することによる。このため、一般に得られる撮像画像は、場所ごとに劣化度合いが異なる。これは、撮像装置と被写体との間に存在する媒質の厚みや温度分布、流れなどが場所ごとに異なり、その結果、媒質の屈折率が場所ごとに異なるためである。同様の理由で、撮像画像の劣化度合いは時間ごとに異なる。
非特許文献1に開示されている擾乱(大気ゆらぎ)による動画の各フレームの位置ずれ補正(registration)は、非剛体(non−rigid)レジストレーションを用いて行われる。ここで、非剛体レジストレーションとは画像処理分野でよく用いられる、簡易的な大気ゆらぎ(補正)モデルである。簡単には、まず大気ゆらぎで劣化させる元の画像において、粗く画像の制御点(control point)を設定する。次に、各制御点において加える変形量を表したベクトル(deformation vector)を正規乱数でランダムに決定し、制御点を変形させる。簡単には、この変形ベクトルの正規乱数の分散が大きいと、得られる画像の大気ゆらぎによる劣化が大きくなる。
次に、変形させた制御点から、元画像の各画素に加える大気ゆらぎによる変形量を、以下の式(1)に従って決定する。
式(1)において、Δxは元画像の各画素に加える変形量、pは制御点に加える変形量(変形ベクトル)、A(x)はpをΔxへ変換する行列、ε、εはそれぞれ制御点のx、y方向の間隔である。また、(x,y)は任意の制御点の座標、(x,y)は元画像のi番目の画素の座標である。式(1)は、簡単にいうと、変形させた制御点に沿って、元画像の各画素に滑らかな変形を加える式である。
最後に、変形させた各画素における画素値を、元画像から補間で決定し、大気ゆらぎ画像を生成する。なお、このモデルはB−Splineとも呼ばれる。また、このモデルは媒質の種類(大気や水)によらず、任意の擾乱による画像劣化へ適用可能である。
位置ずれ補正の場合、これとは逆に大気ゆらぎ画像と参照画像(reference image)から、反復計算により変形ベクトルを推定し、得られる変形ベクトルから、大気ゆらぎ画像に加わった変形を補正する。ここで、参照画像は大気ゆらぎによる画像劣化がないと見なせる基準画像であり、例えば複数枚の大気ゆらぎ画像の平均をとることで与えられる。なお、この詳細は、非特許文献1に開示されている。
大気ゆらぎ動画を作る場合、大気ゆらぎを加える元の動画の各フレームに対して、前述の大気ゆらぎを加える処理を行えばよい。この場合、各フレームに加える大気ゆらぎの間に相関がないため、得られる大気ゆらぎ動画は現実(大気ゆらぎ実動画)とは異なる。しかし、得られる大気ゆらぎ動画は、定性的には大気ゆらぎ実動画と良く似ている。また、非特許文献1に開示された方法により、大気ゆらぎによる画像劣化は、良好に回復することができる。よって、B−Splineに基づく擾乱モデルは、現実と近いと考えられるため、本発明でも後述するCNNの学習のため、擾乱により劣化した訓練動画(訓練画像群)の作成に用いる。
各フレームの場所ごとに異なるぼけの補正は、注目領域の一定時間(フレーム)において、一番鮮鋭(画素値の分散が大きい)なものを選び、これを画像全体で行い、得られた領域をつなぎ合わせることでも行われる。この処理は、ラッキーイメージング(lucky imaging)と呼ばれている。ブラインドデコンボリューションでは、大気ゆらぎによるぼけを表したPSF(Point Spread Function)と、大気ゆらぎを除去した画像の両方を、同時に推定することで行われる。
次に、図1を参照して、本実施形態における画像処理装置について説明する。図1は、画像処理装置100のブロック図である。画像処理装置100は、画像取得部101、パラメータ取得部102、測定部103、および、補正部104を備えて構成されている。画像取得部101は、撮像装置により撮影された複数の画像(入力画像、動画)を取得する。撮像装置は、デジタル動画像データを取得可能であり、例えばデジタルビデオカメラやデジタルカメラである。
動画像のフレームは一般に劣化している。例えば、デジタルカメラの場合、結像光学系(撮像光学系)や光学ローパスフィルタに起因するぼけ、撮像素子に起因するノイズ、デモザイキングのエラー、データ圧縮に起因するノイズなどが劣化要因として挙げられる。これらの動画像劣化過程は、既知であることが望ましい。これは、後述するCNNの学習において大量に必要となる訓練画像群(訓練動画)を、数値計算で生成できるためである。動画像データの形式は、計算機に読み込み可能なデジタルデータであれば限定されるものでなく、例えば、AVI(Audio Video Interleave)、MPEG(Moving Picture Experts Group)である。また本実施形態において、動画像はカラーでもモノクロでもよいが、簡単のため、以下の説明ではモノクロ動画像であるとする。
また画像取得部101は、複数の入力画像の撮影条件として、撮影に用いられた光学系(撮像光学系)の光学条件(焦点距離や絞り値など)、撮影に用いられた撮像素子の画素ピッチ、または、フレームレートを取得する。これは、後述するCNNの学習条件と撮影条件(入力画像を取得した条件)とを合わせるためである。
パラメータ取得部102は、学習済みのネットワークパラメータを取得する。なお、ネットワークパラメータとは、後述するCNNのパラメータであるフィルタおよびバイアスを含む。CNNとは、簡単には、学習したパラメータを用いた演算であり、例えば、PC(Personal Computer)、ワークステーション、FPGA(Field Programmable Gate Array)、または、サーバで構成される。このためパラメータ取得部102は、例えばPCのHDD(Hard Disk Drive)などで構成される。またはパラメータ取得部102は、ネットワークパラメータを記憶した記憶媒体を、CD−ROMドライブや、USBインターフェースなどのインターフェース機器を介して取得してもよい。この場合、パラメータ取得部102は、インターフェース機器も含む形で構成される。
学習済みのネットワークパラメータとは、後述する測定部103および補正部104を構成するCNNのネットワークパラメータを、予め学習により生成したものである。また、画像取得部101から提供される入力画像を取得した条件(撮影条件)と、ネットワークパラメータの学習条件とが近いものを選択し、取得するパラメータとしてもよい。ここで学習条件とは、後述するCNNの学習に用いる訓練画像群を、数値計算的に生成(または取得)する際の撮影条件(光学系の光学条件、画素ピッチ、フレームレートなど)である。
次に、CNNについて簡単に説明する。CNNとは、学習(trainingまたはlearning)により生成したフィルタを、画像に対して畳み込んだ(convolution)後、非線形演算することを繰り返す学習型の画像処理技術である。画像に対してフィルタを畳み込んだ後、非線形演算して得られる画像は、特徴マップ(feature map)と呼ばれる。学習は、入力画像と出力画像とのペアからなる訓練画像群(training imagesまたはdata sets)を用いて行われる。簡単には、入力画像から対応する出力画像へ、高精度に変換できるフィルタの値を、訓練画像群から生成することが学習である。詳しくは後述する。
また、画像がRGBカラーチャンネルを持つ場合や複数の画像から構成されている(動画像)場合、または、特徴マップが複数の画像から構成されている場合、畳み込みに用いるフィルタはそれに応じて複数チャンネルを持つ。すなわち、畳み込みフィルタは、画像の縦横サイズと枚数の他にチャンネル数を加えた4次元配列で表現される。また、画像(または特徴マップ)にフィルタを畳み込んだ後、非線形演算する処理は、層(layer)という単位で表現される。例えば、m層目の特徴マップやn層目のフィルタと呼ばれる。例えば、フィルタの畳み込みと非線形演算を3回繰り返すCNNは、3層構造のネットワークと呼ばれる。この処理は、以下の式(2)のように定式化できる。
式(2)において、Wはn層目のフィルタ、bはn層目のバイアス、fは非線形演算子、Xはn層目の特徴マップ、*は畳み込み演算子である。なお、右肩の(l)はl番目のフィルタまたは特徴マップであることを表している。フィルタおよびバイアスは、後述する学習により生成され、まとめてネットワークパラメータと呼ばれる。また、非線形演算としてシグモイド関数(sigmoid function)やReLU(Rectified Linear Unit)が良く用いられる。
次に、CNNの学習について説明する。CNNの学習は、入力訓練画像(例えば劣化画像)と対応する出力訓練画像(例えば鮮鋭な正解画像)との組からなる訓練画像(訓練画像群)に対して、一般に以下の式(3)で表される目的関数を最小化することで行われる。
式(3)において、Lは正解とその推定との誤差を測る損失関数(loss function)である。Yはi番目の出力訓練画像、Xはi番目の入力訓練画像である。Fは、CNNの各層で行う演算(数式2)を、まとめて表した関数である。θは、ネットワークパラメータ(フィルタおよびバイアス)である。また、‖Z‖はL2ノルムであり、簡単にはベクトルZの要素の2乗和の平方根である。
なお、訓練画像には既知の対応関係を持った入出力画像が用いられる。例えば、鮮鋭な出力画像とそれに対して光学系に起因するぼけを付加し劣化した入力画像などである。また、CNNの出力が画像でなくスカラー(値)である場合も、同様に損失関数を定義し、ネットワークパラメータを決定すればよい。その場合、訓練画像は、入力画像と対応する出力値となる。スカラーを出力するCNNは、全結合(fully connected)ニューラルネットワークと呼ばれる特殊なものであり、詳細は後述する。
式(3)において、nは学習に用いる訓練画像の全枚数であるが、一般に訓練画像の全枚数は多い(〜数万枚)ため、確率的勾配降下法(Stochastic Gradient Descent;SGD)では、訓練画像の一部をランダムに選び学習に用いる。これにより、多くの訓練画像を用いた学習における、計算負荷を低減することができる。
また、目的関数の最小化(=最適化)法として、モーメンタム(momentum)法やAdaGrad法、AdaDelta法、Adam法など、様々な方法が知られている。ただし、学習における最適化法の選択指針は現状存在しない。よって、基本的に何を用いても良いが、最適化法ごとの収束性には違いがあるため、学習時間の違いが生じることが知られている。
以上の手順で学習したネットワークパラメータとCNNを用いて、例えば劣化した画像から鮮鋭な画像へ、高精度に変換する画像処理が可能になる。この画像処理は、深層学習(deep learning)とも呼ばれる。
測定部103は、学習済みネットワークパラメータとCNNとを用いて、入力画像(複数の画像)から擾乱の強度を測定して出力する。測定部103は、前述したCNNであり、例えば、PC、ワークステーション、FPGA、サーバで構成されるが、これらに限定されるものではなく、前述したCNNの演算が実現可能な計算機であればよい。擾乱の強度とは、入力画像の擾乱の強度を表すスカラーであり、具体的には入力画像の時間的または空間的な画素値の散布度である。ここで散布度とは、分散、標準偏差を含む統計量である。例えば、擾乱モデルとして前述したB−Splineを用いた場合、擾乱の強度として、前述した変形ベクトルの分散を用いてもよい。このように、入力画像の擾乱の強度を、時間的または空間的な画素値の散布度というスカラーで表現する点が、本発明の特徴の一つである。
前述のように、CNNの出力は画像である。このため、スカラーである擾乱の強度を出力するには、CNNの出力である画像をスカラーに変換する全結合ニューラルネットワークを出力部分に追加すればよい。全結合ニューラルネットワークは、以下の式(4)ように定式化できる。
式(4)において、Xはn層目の特徴マップを表したベクトル、WはXn−1の各要素に加える重みを表した行列である。これより、CNNで出力される画像を、ベクトルに変換した後、全結合ニューラルネットワークへ入力する必要がある。例えば、50×50画素の画像を、2500次元のベクトルに変換する。また、全結合ニューラルネットワークへ入力できる画像サイズは、全結合ニューラルネットワークのサイズにより規定される。このため、全結合ニューラルネットワークへ入力可能な出力画像を得ることができるように、CNNへの入力画像のサイズを調整する必要がある。
なお、全結合ニューラルネットワークを追加したCNNであっても、前述した方法で学習することができる。これは、歴史的には全結合ニューラルネットワークが先に研究され、その派生としてCNNが後に研究されたためであるが、その詳細は省略する。測定部103は、正確には、CNNとその出力部分に追加された全結合ニューラルネットワークとを備えて構成されるが、単に「測定部103のCNN」などと呼ぶ。
また、測定部103のCNNのネットワークパラメータの学習には、入力訓練画像とその擾乱の強度との組からなる訓練画像(訓練画像群)を用いる。ただし、一般的に、既知の擾乱の強度で劣化した入力訓練画像を得ることは難しい。このため、例えば前述した擾乱モデルB−Splineを用いて、数値計算的に生成してもよい。この場合、擾乱の強度として、前述した変形ベクトルの分散を用いることができる。例えば、ネットワークパラメータは、時間的に異なる複数の第1の画像群(第1の動画)と複数の第1の画像群に対して既知の擾乱の強度により劣化させた複数の第2の画像群(第2の動画)との組からなる訓練画像群(訓練動画)を用いた学習により生成される。「時間的に異なる」複数の画像とは、異なる時間に取得された複数の画像を含む。
また、移動物体を含む入力訓練画像を訓練画像として用いることで、移動物体に頑強な(高精度な)擾乱の強度の測定が可能になる。同様に、画像取得部101の動画劣化過程が既知であれば、その劣化を含む入力訓練画像を数値計算で生成して訓練画像として用いることで、劣化に頑強な(高精度な)擾乱の強度の測定が可能になる。
(規格化)
測定部103は、入力画像または入力訓練画像に対して規格化を行う。これは、入力画像の画素値の絶対値により、測定結果が左右されないようにすることが目的である。規格化は、例えば、複数の入力画像の平均画像を生成し、複数の入力画像の各々から平均画像を減算することにより行われる。この規格化方法は、以下の式(5)のように定式化することができる。
式(5)において、Iはi番目の入力画像、mは入力画像の枚数である。また、Iの上に付されたバー(―)は、規格化されたことを表している。
また規格化は、例えば、複数の入力画像から時間的に隣り合う2枚の画像の差分画像を生成することにより行うこともできる。この規格化方法は、以下の式(6)ように定式化することができる。
式(6)にて用いられる記号の意味は、前述の式(5)と同様である。規格化方法は、擾乱の強度の定義、入力画像、擾乱の強度の測定精度などに応じて適宜選択であるが、本実施形態では、基本的に式(5)で与えられる規格化方法を用いる。このように本実施形態では、好ましくは、規格化を行った入力画像を用いて擾乱の強度を測定する。これにより、測定結果が入力画像の画素値の絶対値により受ける影響を除去することができるため、高精度な測定結果を得ることが可能である。
(入力画像サイズ調整)
測定部103へ入力する画像の縦・横の画素数は、ネットワークの出力部分に追加された全結合ニューラルネットワークで決定される。このため、入力画像と入力訓練画像はトリミングや補間や間引きにより、各画像の縦・横の画素数を調整する必要がある。
また、測定部103へ入力する画像の枚数(フレーム数)は、入力訓練画像のフレーム数に応じて決定される。このため入力画像は、時間的に補間または間引いて、測定部103へ入力する必要がある。例えば、高フレームレートで入力画像を取得した場合、入力訓練画像のフレームレートと一致するように間引いた入力画像を、測定部103へ入力する。なお、これは入力画像と入力訓練画像のフレームレートの違いにより、測定結果が左右されないようにするためである。また、入力画像を取得した条件は画像取得部101から、入力訓練画像のフレーム数はパラメータ取得部102から、各々取得すればよい。
このように本実施形態において、好ましくは、画像サイズ(特にフレームレート)を調整した入力画像を用いて擾乱の強度を測定する。これにより、測定結果が入力画像と入力訓練画像のフレームレートの違いにより受ける影響を除去することができるため、高精度な測定結果を得ることが可能である。
(複数箇所測定)
測定部103は、入力画像の複数箇所の擾乱の強度を測定し、最終的な擾乱強度を決定してもよい。ここで、入力画像の複数箇所とは、入力画像の空間と時間(縦、横、フレーム)のうち、複数の箇所という意味である。より具体的には、入力画像の空間・時間方向のある箇所から前述した方法で縦・横画素数、フレーム数の画像を抽出し、それを入力画像として測定部103へ入力し、その箇所における擾乱の強度を測定する。
また、入力画像の複数箇所で測定した擾乱の強度から、例えばその平均値をとって最終的な擾乱強度としてもよい。また、複数箇所で測定した擾乱の強度から中間値、最小値、最大値、または、最頻値を取得し、それを最終的な擾乱の強度としてもよい。これは、入力画像の局所的に擾乱による劣化が大きい場所により、測定結果が左右されないようにするためである。
このように本実施例において、好ましくは、入力画像の複数箇所の擾乱強度を測定し、最終的な擾乱強度を決定する。これにより、入力画像の局所的に擾乱による劣化が大きい場所が存在しても、高精度な測定結果を得ることが可能である。
補正部104は、測定された擾乱の強度に基づいて、擾乱による入力画像の劣化を補正する。ここで、補正方法は限定されるものではないが、画像処理の精度の点から、前述したCNNを用いることが好ましい。このため、以下では例示的に補正部104はCNNであるとして説明する。補正部104は前述したCNNであり、例えば、PC、ワークステーション、FPGA、サーバで構成されるが、これらに限定されるものではなく、前述したCNNの演算が実現可能な計算機であればよい。補正部104は、パラメータ取得部102が提供する学習済みのネットワークパラメータを用いて、補正処理を行う。また、補正部104のCNNのネットワークパラメータの学習には、出力訓練画像に既知の擾乱の強度の劣化を加えた入力訓練画像との組からなる訓練画像を用いる。ただし、一般的にこのような訓練画像を得ることは難しい。このため、例えば前述した擾乱モデルB−Splineを用いて、訓練画像を数値計算的に生成してもよい。この場合、擾乱の強度として、前述した変形ベクトルの分散を用いることができる。
また、移動物体を含む入出力訓練画像を訓練画像として用いることにより、移動物体に頑強な擾乱の補正が可能になる。同様に、画像取得部101の動画劣化過程が既知であれば、その劣化を含む入力訓練画像を数値計算で生成して訓練画像として用いることで、劣化に頑強な擾乱の補正が可能になる。
(ネットワークパラメータ選択)
補正部104は、測定された擾乱の強度に基づいて、パラメータ取得部102が提供する学習済みのネットワークパラメータを選択して、補正処理を行う。これは、入力画像と同じ擾乱強度の訓練画像で学習したネットワークパラメータを用いることで、高精度な擾乱補正を行うためである。例えば、測定された擾乱の強度と最も近い擾乱の強度による劣化を加えた訓練画像で学習したネットワークパラメータを選択し、補正処理に用いてもよい。このように、測定された擾乱の強度に基づいて、学習済みのネットワークパラメータを選択して補正処理を行うことで、高精度な擾乱補正を行うことができる。
(フレーム数)
補正部104は、測定された擾乱の強度に基づいて、入力画像の枚数(フレーム数)を決定する。これは、擾乱が大きければ補正に入力画像の枚数を多く必要とし、逆に擾乱が小さければ補正に入力画像の枚数を多く必要としないからである。なお、補正部104のCNNのネットワークパラメータ学習の際には、訓練画像に加える擾乱強度に応じて、入力訓練画像の枚数を調整する。具体的には、擾乱が大きければ入力訓練画像の枚数を多くし、擾乱が小さければ入力訓練画像の枚数を少なく調整して、学習すればよい。このように、測定された擾乱強度に基づき、入力画像の枚数(フレーム数)を決定することで、補正に必要なデータを決定することができる。
補正部104で得られる画像処理結果である出力画像は、画像処理装置100の内部に設けられた不図示の記憶部に記憶することができる。また出力画像は、画像処理装置100の外部に設けられた不図示の表示部に表示してもよい。または、出力画像は、不図示のCD−ROMドライブやUSBインターフェースなどのインターフェース機器を介して、画像処理装置100の外部の不図示の記憶媒体に記憶してもよい。なお、画像取得部101、パラメータ取得部102、測定部103、および、補正部104の間で情報(データ)をやり取りするための配線や無線に関する説明については省略する。
画像取得部101、パラメータ取得部102、測定部103、および補正部104の機能を記述したプログラムを計算機に実行させることで、画像処理装置100の機能を、計算機上で実現してもよい。同様に、測定部103および補正部104の少なくとも一方の機能を記述したプログラムをVLSIへ電子回路として実装し、画像処理装置100の一部機能を実現してもよい。
次に、図2を参照して、本実施形態における画像処理システムについて説明する。図2は、画像処理システム200の構成図である。画像処理システム200は、画像処理装置100aと撮像装置(デジタルカメラ)201とを備えて構成される。撮像装置201は、撮像光学系および撮像素子を有し、撮影画像を取得する。撮像装置201により取得された撮影画像は、画像処理装置100aへ出力される。画像処理装置100aは、PCとディスプレイとを有する。PCは、画像取得部101、パラメータ取得部102、測定部103、および、補正部104を有する。ディスプレイは、画像処理結果としての出力画像を表示する。
次に、図3を参照して本実施形態における撮像装置について説明する。図3は、撮像装置300の構成図である。撮像装置300は、カメラ本体301とレンズ装置(交換レンズ)302とを備えて構成されている。カメラ本体301は、撮像素子303、画像処理エンジン(画像処理装置)304、および、モニタ305を有する。画像処理エンジン304は、画像取得部101、パラメータ取得部102、測定部103、および、補正部104を有する。モニタ305は、画像処理結果としての出力画像を表示する。
次に、図4を参照して、本実施形態における別の画像処理システムについて説明する。図4は、画像処理システム400のブロック図である。画像処理システム400は、クライアント装置401と、クライアント装置401にネットワーク403を介して接続されているサーバ装置402とを有する。クライアント装置401は、画像出力部404を有する。画像出力部404は、擾乱により劣化した時間的に異なる複数の画像をサーバ装置402へ出力する。サーバ装置402は、パラメータ取得部405、測定部406、および、擾乱強度出力部407を有する。パラメータ取得部405は、学習済みのネットワークパラメータを取得する。測定部406は、ネットワークパラメータとニューラルネットワークとを用いて、複数の画像から擾乱の強度を測定する。擾乱強度出力部407は、擾乱の強度をクライアント装置401へ出力する。またクライアント装置401またはサーバ装置402は、擾乱の強度に基づいて複数の画像を補正する補正部(不図示)を有していてもよい。
次に、図5を参照して、本実施形態における画像処理方法について説明する。図5は、画像処理方法のフローチャートであり、VLSIなどで画像処理方法を実施する場合におけるプログラムのフローを示している。図5の各ステップは、例えば、画像処理装置100の画像取得部101、パラメータ取得部102、測定部103、および、補正部104により実行される。
まずステップS501において、画像取得部101は、擾乱により劣化した時間的に異なる複数の画像(入力画像、動画)を取得する。続いてステップS502において、パラメータ取得部102は、学習済みのネットワークパラメータを取得する。続いてステップS503において、測定部103は、ネットワークパラメータとニューラルネットワークとを用いて、複数の画像から擾乱の強度を測定する。最後にステップS504において、補正部104は、擾乱の強度に基づいて複数の画像を補正する。
次に、各実施例について詳述する。
まず、図6および図7を参照して、本発明の実施例1について説明する。本実施例では、画像処理装置100の機能を記述したプログラムを用いて、既知の擾乱強度により劣化した入力画像の擾乱強度を測定した数値計算の結果を説明する。
図6は、本実施例におけるネットワーク構造(測定部103のCNN)600を示す図である。図6において、convは畳み込み層、deconvは逆(転置)畳み込み層をそれぞれ示している。また、各層の上の数字列はフィルタの縦横サイズ、チャンネル数、および、枚数を表している。例えば、図6中の「3×3×1×8」は縦横サイズ3×3、チャンネル数1、枚数8枚のフィルタで畳み込み、または逆(転置)畳み込みを行うことを表している。逆(転置)畳み込みとは、畳み込みの一種であり、簡単には畳み込みの逆処理である。詳細は、例えば非特許文献2に開示されている。また、図6中の丸中の+印は特徴マップの要素ごとの和を表している。
また、ネットワーク構造600における出力部のFCは、全結合ネットワークを示している。全結合ネットワークの上の数字列は、全結合ネットワークへの入力サイズと出力サイズを表している。例えば、図6中の「2500×2500」は2500次元のベクトルを入力し、2500次元のベクトルを出力することを表している。より具体的には、CNNで出力される50×50画素の画像を、2500次元のベクトルへ変換し、全結合ネットワークへ入力している。前述したように、全結合ネットワークへ入力可能な画像サイズは決まっている。それに従って入力画像サイズは決定される。本実施例では、入力画像サイズは50×50画素、11フレームである。
なお、図6に示されるネットワーク構造600は一例に過ぎず、本発明はこれに限定されるものではない。訓練画像は、既知の擾乱強度を有する入力訓練画像とその擾乱強度との組からなる。なお、測定部103のネットワーク構造600に合わせて、入力訓練画像サイズは50×50画素、11フレームである。また、入力訓練画像は、前述した擾乱モデルB−Splineを用いて、数値計算的に生成される。その際、擾乱強度として前述した変形ベクトルの分散を用いる。また、訓練画像として移動物体を含む入力訓練画像を用いる。これは、前述したとおり、本発明により移動物体に頑強な擾乱強度の測定が可能になることを示すためである。
入力画像は、訓練入力画像と同じ条件(光学系の光学条件、イメージセンサの画素ピッチ、および、フレームレート)で取得したと見なせる画像を用いる。このため、入力画像のフレームレートに関して調整は行っていない。なお、入力画像サイズは400×400画素、40フレームである。そこから、50×50画素、11フレームを時間的および空間的にランダムに20箇所抽出し、算出した擾乱強度の平均値を、最終的な擾乱強度とする。また、入力画像として移動物体(車)を含むものを用いた。
入力画像と入力訓練画像の規格化は、式(5)で与えられる方法を用いる。すなわち、複数の入力(訓練)画像の平均画像を生成し、これを複数の入力(訓練)画像の各々から減算することにより、規格化を行う。また、全ての画像はモノクロ画像であり、画素値は[0 1]の範囲になるように規格化される。
学習は、最適化法としてAdam法を用いたSGD(非特許文献2参照)である。なお、Adam法のパラメータは、α=10−4、β=0.9、β=0.999、ε=10−8である。また、SGDは訓練画像の全枚数76800枚から、ランダムに128枚選択して用いる。また学習の反復回数は、18×10回(300エポック)である。またネットワークパラメータ(フィルタおよびバイアス)の初期値は、全ての層でXavier(非特許文献3参照)を用いる。
なお、測定部103へ入力する入力画像と入力訓練画像のサイズやフレーム数、規格化方法は一例であり、本発明はこれに限定されるものではない。また、測定部103から出力される擾乱強度の定義や最終的な擾乱強度の算出方法は一例であり、本発明はこれに限定されるものではない。
図6に示されるように、ネットワーク構造(ニューラルネットワーク)600は、メイン部601、入力部602、変換部603、および、出力部604を有する。メイン部601は、第1のネットワークパラメータと少なくとも2層以上の第1の畳み込みニューラルネットワーク(CNN)とを用いて、複数の画像を第1の特徴量611a、611b、611cに変換する。入力部602は、第2のネットワークパラメータと第2のCNNとを用いて、複数の画像を第2の特徴量612a、612b、612cに変換する。変換部603は、第1の特徴量と第2の特徴量とを加算して第3の特徴量613a、613b、613cを生成し、第3のネットワークパラメータと第3のCNNとを用いて第3の特徴量を第4の特徴量614に変換する。出力部604は、第4のネットワークパラメータと全結合ニューラルネットワークとを用いて、第4の特徴量から擾乱の強度を出力する。
図7は、本実施例における数値計算結果(擾乱強度測定結果)を示す図である。図7において横軸は入力画像に与えた擾乱強度(真の擾乱強度)、縦軸は入力画像から測定された擾乱強度である。なお、グラフのエラーバーは、入力画像からランダムに抽出された、20箇所の測定した擾乱強度の標準偏差を表している。これより、入力画像に与えた擾乱強度と相関が高く、かつ移動物体に頑強な擾乱強度測定ができていることが分かる。
次に、図8乃至図10を参照して、本発明の実施例2について説明する。本実施例では、画像処理装置100の機能を記述したプログラムを用いて、未知の擾乱強度を有する入力画像の擾乱強度を測定した後、擾乱を補正した数値計算の結果について説明する。なお、測定部103のCNNは、実施例1と同様であるため、その説明は省略する。
図8は、本実施例におけるネットワーク構造(補正部104のCNN)800を示す図である。図8のネットワーク構造800の基本構成は、出力部分に全結合ネットワークがない以外は、実施例1にて説明した測定部103のネットワーク構造600と同様であるため、その詳細な説明は省略する。
ネットワーク構造800は、メイン部801、入力部802、および、出力部803を有する。メイン部801は、学習済みの第5のネットワークパラメータと少なくとも2層以上の第5の畳み込みニューラルネットワーク(CNN)とを用いて、複数の画像を第5の特徴量811a、811b、811cに変換する。入力部802は、学習済みの第6のネットワークパラメータと第6のCNNとを用いて、複数の画像を第6の特徴量812a、812b、812cに変換する。出力部803は、第5の特徴量と第6の特徴量とを加算して第7の特徴量813a、813b、813cを生成し、学習済みの第7のネットワークパラメータと第7のCNNとを用いて第7の特徴量を出力画像へ変換する。なお、図8に示されるネットワーク構造800は一例に過ぎず、本発明はこれに限定されるものではない。
訓練画像は、出力訓練画像に対して既知の擾乱強度による劣化を加えた入力訓練画像の組からなる。なお、入力訓練画像は、前述した擾乱モデルB−Splineを用いて、出力訓練画像から数値計算的に生成される。その際、擾乱強度として前述した変形ベクトルの分散を用いる。また、ネットワーク構造800にはその出力部分に全結合ネットワークがないため、任意サイズの訓練画像を用いることができる。本実施例では、実施例1と同様に、入出力訓練画像サイズは50×50画素を用いる。また、擾乱強度に応じて入力訓練画像の枚数(フレーム数)を決定することができる。本実施例では、簡単のため、擾乱強度によらずフレーム数は11フレームである。
入力画像は、訓練入力画像と同じ条件(光学系の光学条件、イメージセンサの画素ピッチ、フレームレート)で取得したと見なせる画像を用いる。このため、フレームレートに関して調整は行っていない。なお、入力画像サイズは400×400画素、80フレームである。また出力画像サイズは、入力画像サイズと同じである。また、全ての画像はモノクロ画像であり、画素値は[0 1]の範囲になるように規格化されている。
学習は、前述と同様に、最適化法としてAdam法を用いたSGDである。Adam法のパラメータは、α=10−4、β=0.9、β=0.999、ε=10−8である。SGDは、訓練画像全枚数76800枚から、ランダムに128枚選択して用いる。学習の反復回数は、18×10回(300エポック)である。ネットワークパラメータ(フィルタおよびバイアス)の初期値は、全ての層でXavier(非特許文献3参照)を用いる。なお、測定部103へ入力する入力画像と入力訓練画像のサイズやフレーム数は一例であり、本発明はこれに限定されるものではない。また、測定部103から出力される出力画像と出力訓練画像のサイズやフレーム数は一例であり、本発明はこれに限定されるものではない。
図9は、本実施例における数値計算結果を定性的に示す図であり、擾乱補正結果を示す。図9(a)は擾乱で劣化した画像(入力画像)の1フレーム、図9(b)は擾乱を補正した(出力画像)の対応する1フレームである。なお、各図の下には、分かり易さのため、各図の一断面を時間方向に積層した図を併せて示している。これより、断面図のゆらぎが緩やかになっていることから、擾乱が適切に補正されていることが定性的に分かる。
図10は、本実施例における数値計算結果を定量的に示す図であり、擾乱で劣化した画像(入力画像)と、擾乱を補正した画像(出力画像)の擾乱強度を、本実施例により測定した結果を示す。なお、擾乱強度の測定には、実施例1で説明した方法を用いる。入力画像よりも出力画像の擾乱強度のほうが小さくなっていることから、擾乱が適切に補正されていることが定量的に分かる。
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
各実施例によれば、高精度に擾乱の強度を測定可能な画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体を提供することができる。
以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
100 画像処理装置
101 画像取得部
102 パラメータ取得部
103 測定部

Claims (21)

  1. 擾乱により劣化した時間的に異なる複数の画像を取得する画像取得部と、
    学習済みのネットワークパラメータを取得するパラメータ取得部と、
    前記ネットワークパラメータとニューラルネットワークとを用いて、前記複数の画像から前記擾乱の強度を測定する測定部と、を有することを特徴とする画像処理装置。
  2. 前記擾乱の強度は、時間的または空間的な画素値の散布度であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記画像取得部は、前記複数の画像の撮影条件を取得することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記撮影条件は、撮影に用いられた光学系の光学条件、撮影に用いられた撮像素子の画素ピッチ、または、フレームレートであることを特徴とする請求項3に記載の画像処理装置。
  5. 前記ネットワークパラメータは、時間的に異なる複数の第1の画像群と前記複数の第1の画像群に対して既知の擾乱の強度により劣化させた複数の第2の画像群との組からなる訓練画像群を用いた学習により生成されていることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記パラメータ取得部は、前記複数の画像の撮影条件に基づいて、取得する前記ネットワークパラメータを決定することを特徴とすることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記ニューラルネットワークは、
    第1のネットワークパラメータと少なくとも2層以上の第1の畳み込みニューラルネットワーク(CNN)とを用いて、前記複数の画像を第1の特徴量に変換するメイン部と、
    第2のネットワークパラメータと第2のCNNとを用いて、前記複数の画像を第2の特徴量に変換する入力部と、
    前記第1の特徴量と前記第2の特徴量とを加算して第3の特徴量を生成し、第3のネットワークパラメータと第3のCNNとを用いて前記第3の特徴量を第4の特徴量に変換する変換部と、
    第4のネットワークパラメータと全結合ニューラルネットワークとを用いて、前記第4の特徴量から前記擾乱の強度を出力する出力部と、を有することを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 前記測定部は、前記複数の画像の撮影条件に基づいて、測定に用いるための前記複数の画像のサイズを決定することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 前記測定部は、前記複数の画像を時間的または空間的に補間または間引きすることにより、前記複数の画像のサイズを調整することを特徴とする請求項1乃至8のいずれか1項に記載の画像処理装置。
  10. 前記測定部は、前記複数の画像の各々から前記複数の画像の平均画像を減算することにより、複数の入力画像を生成することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  11. 前記測定部は、前記複数の画像から、時間的に隣り合う2枚の画像の差分画像を生成することを特徴とする請求項1乃至9のいずれか1項に記載の画像処理装置。
  12. 前記測定部は、前記複数の画像の複数箇所において前記擾乱の強度を測定し、最終的な擾乱の強度を決定することを特徴とする請求項1乃至11のいずれか1項に記載の画像処理装置。
  13. 前記擾乱の強度は、B−Splineに基づく擾乱モデルにおいて、画像における制御点に乱数で与える変形量の正規乱数の分散であることを特徴とする請求項1乃至12のいずれか1項に記載の画像処理装置。
  14. 前記擾乱の強度に基づいて前記複数の画像を補正する補正部を更に有することを特徴とする請求項1乃至13のいずれか1項に記載の画像処理装置。
  15. 前記補正部は、
    学習済みの第5のネットワークパラメータと少なくとも2層以上の第5の畳み込みニューラルネットワーク(CNN)とを用いて、前記複数の画像を第5の特徴量に変換するメイン部と、
    学習済みの第6のネットワークパラメータと第6のCNNとを用いて、前記複数の画像を第6の特徴量に変換する入力部と、
    前記第5の特徴量と前記第6の特徴量とを加算して第7の特徴量を生成し、学習済みの第7のネットワークパラメータと第7のCNNとを用いて前記第7の特徴量を出力画像へ変換する出力部と、を有することを特徴とする請求項14に記載の画像処理装置。
  16. 前記補正部は、測定部により測定された前記擾乱の強度に基づいて、補正に用いる前記複数の画像の数を決定することを特徴とする請求項14または15に記載の画像処理装置。
  17. クライアント装置と、
    前記クライアント装置にネットワークを介して接続されているサーバ装置と、を有する画像処理システムであって、
    前記クライアント装置は、擾乱により劣化した時間的に異なる複数の画像を前記サーバ装置へ出力する画像出力部を有し、
    前記サーバ装置は、
    学習済みのネットワークパラメータを取得するパラメータ取得部と、
    前記ネットワークパラメータとニューラルネットワークとを用いて、前記複数の画像から前記擾乱の強度を測定する測定部と、
    前記擾乱の強度を前記クライアント装置へ出力する擾乱強度出力部と、を有することを特徴とする画像処理システム。
  18. 撮像素子と、
    請求項1乃至16のいずれか1項に記載の画像処理装置と、を有することを特徴とする撮像装置。
  19. 擾乱により劣化した時間的に異なる複数の画像を取得する画像取得ステップと、
    学習済みのネットワークパラメータを取得するパラメータ取得ステップと、
    前記ネットワークパラメータとニューラルネットワークとを用いて、前記複数の画像から前記擾乱の強度を測定する測定ステップと、を有することを特徴とする画像処理方法。
  20. 請求項19に記載の画像処理方法をコンピュータに実行させることを特徴とするプログラム。
  21. 請求項20に記載のプログラムを記憶していることを特徴とする記憶媒体。
JP2018219876A 2018-11-26 2018-11-26 画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体 Active JP7246900B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018219876A JP7246900B2 (ja) 2018-11-26 2018-11-26 画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体
US16/688,150 US11488279B2 (en) 2018-11-26 2019-11-19 Image processing apparatus, image processing system, imaging apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018219876A JP7246900B2 (ja) 2018-11-26 2018-11-26 画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体

Publications (2)

Publication Number Publication Date
JP2020086891A true JP2020086891A (ja) 2020-06-04
JP7246900B2 JP7246900B2 (ja) 2023-03-28

Family

ID=70770838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018219876A Active JP7246900B2 (ja) 2018-11-26 2018-11-26 画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体

Country Status (2)

Country Link
US (1) US11488279B2 (ja)
JP (1) JP7246900B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014148A1 (ja) * 2020-07-17 2022-01-20 キヤノン株式会社 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、および、画像処理システム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021051588A (ja) * 2019-09-25 2021-04-01 キヤノン株式会社 画像処理システム、及び画像処理装置とその制御方法、並びにプログラム
CN112285147A (zh) * 2020-10-10 2021-01-29 中国科学技术大学 基于数字图像相关方法测量超高温物体全场应变的方法
CN114708622B (zh) * 2022-06-07 2022-08-16 成都点泽智能科技有限公司 滑雪场设备的调度方法、装置及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017047494A1 (ja) * 2015-09-18 2017-03-23 株式会社日立国際電気 画像処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8447129B2 (en) * 2009-03-18 2013-05-21 Florida Institute Of Technology High-speed diversity-based imaging method for parallel atmospheric turbulence compensation
WO2012098452A1 (en) * 2011-01-18 2012-07-26 Rtc Vision Ltd. System and method for improved character recognition in distorted images
EP3116213A4 (en) * 2014-03-05 2017-06-07 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus, monitor camera, and image processing method
US10726244B2 (en) * 2016-12-07 2020-07-28 Samsung Electronics Co., Ltd. Method and apparatus detecting a target
US10187171B2 (en) * 2017-03-07 2019-01-22 The United States Of America, As Represented By The Secretary Of The Navy Method for free space optical communication utilizing patterned light and convolutional neural networks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017047494A1 (ja) * 2015-09-18 2017-03-23 株式会社日立国際電気 画像処理装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022014148A1 (ja) * 2020-07-17 2022-01-20 キヤノン株式会社 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、および、画像処理システム

Also Published As

Publication number Publication date
JP7246900B2 (ja) 2023-03-28
US11488279B2 (en) 2022-11-01
US20200167885A1 (en) 2020-05-28

Similar Documents

Publication Publication Date Title
JP7246900B2 (ja) 画像処理装置、画像処理システム、撮像装置、画像処理方法、プログラム、および、記憶媒体
JP6957197B2 (ja) 画像処理装置および画像処理方法
JP2019121252A (ja) 画像処理方法、画像処理装置、画像処理プログラム、および、記憶媒体
WO2018037521A1 (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体
WO2008038748A1 (fr) Dispositif et procédé d'opération de coefficient de prévision, dispositif et procédé d'opération de données d'image, programme et support d'enregistrement
JP5615393B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2017010092A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
WO2004068862A1 (ja) 高解像度カラー画像生成方法,高解像度カラー画像生成装置及び高解像度カラー画像生成プログラム
Liu et al. Exploit camera raw data for video super-resolution via hidden markov model inference
JP2011223477A (ja) ブラー補正装置およびブラー補正方法
JP2021165944A (ja) 学習方法、プログラム及び画像処理装置
US8712175B2 (en) Image processing system, image processing method and program for image processing
JP7032913B2 (ja) 画像処理装置、画像処理方法、コンピュータプログラム
Jara et al. Joint de-blurring and nonuniformity correction method for infrared microscopy imaging
JP2017010093A (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP6997969B2 (ja) 画像合成システム、画像合成方法、および画像合成プログラム記録媒体
JP6541454B2 (ja) 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
US9064190B2 (en) Estimating pixel values in digital image processing
JP2012003454A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP5587322B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2020030569A (ja) 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、および、記憶媒体
CN112241670B (zh) 图像处理方法及装置
JP2017130167A (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2014099048A (ja) 画像復元装置および画像復元方法
JP2013069012A (ja) 多眼撮像装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230315

R151 Written notification of patent or utility model registration

Ref document number: 7246900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151