JP6728365B2 - 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体 - Google Patents

画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体 Download PDF

Info

Publication number
JP6728365B2
JP6728365B2 JP2018535995A JP2018535995A JP6728365B2 JP 6728365 B2 JP6728365 B2 JP 6728365B2 JP 2018535995 A JP2018535995 A JP 2018535995A JP 2018535995 A JP2018535995 A JP 2018535995A JP 6728365 B2 JP6728365 B2 JP 6728365B2
Authority
JP
Japan
Prior art keywords
image processing
image
processing method
partial area
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018535995A
Other languages
English (en)
Other versions
JPWO2018037521A1 (ja
Inventor
法人 日浅
法人 日浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JPWO2018037521A1 publication Critical patent/JPWO2018037521A1/ja
Application granted granted Critical
Publication of JP6728365B2 publication Critical patent/JP6728365B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/60Rotation of a whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/60
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20201Motion blur correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks

Description

本発明は、撮像装置を用いて撮影された画像について、撮像装置の光学系によって発生する収差や回折などの光学的劣化を補正する画像処理方法に関する。
表示装置の高精細化に伴い、撮像装置を用いて撮影された画像(撮影画像)の更なる高画質化が望まれている。しかし、撮影画像には、撮像装置内の光学系によって収差や回折などの光学的劣化(ぼけ)が発生している。そのため、被写体空間の情報が失われ、画質の低下を招いていた。
撮影画像の光学的劣化(ぼけ)を補正し、より高解像な画像を得る手法がこれまで数多く提案されている。特許文献1には、Wienerフィルタを用いて収差を補正する手法が提案されている。収差は像高によって変化するため、複数の像高にそれぞれ設定されているぼけ補正のフィルタを使用する。特許文献2には、Wienerフィルタの代わりに、Richardson−Lucy(RL)法を用いた手法が提案されている。
特開2015−216576号公報 特開2013−025473号公報
Y.LeCun,et al."Gradient−based Learning Applied to Document Recognition",Proc.of The IEEE,1998. G.E.Hinton,et al."A fast learning algorithm for deep belief nets",Neural Comput. 2006 Jul;18(7):1527−54. G.E.Hinton & R.R.Salakhutdinov(2006−07−28)."Reducing the Dimensionality of Data with Neural Networks",Science 313(5786):504−507. P.Y.Simard,et al."Best Practices for Convolutional Neural Networks Applied to Visual Document Analysis",ICDAR2003. A.Krizhevsky,"Learning Multiple Layers of Features from Tiny Images",2009,https://www.cs.toronto.edu/〜kriz/learning−features−2009−TR.pdf
特許文献1の手法は、所謂、逆フィルタを用いた手法のため、光学的劣化のMTF(Modulation Transfer Function)が0に近い周波数成分は、原理的に復元できない。一方、特許文献2では、RL法が推定を含む超解像処理のため、MTFが0に近い周波数成分も復元することができる。ただし、特許文献1及び2は共に、弊害としてノイズの増幅やリンギング(オーバーシュートとアンダーシュートも含む)が発生する問題がある。故に、解像感が向上しても、これらの弊害によって画質が低下してしまう。
本発明の一実施形態としての画像処理方法は、撮像装置を用いて撮影された入力画像の部分領域を取得する工程と、前記部分領域の位置に応じて異なる、予め学習された補正情報を取得する工程と、前記部分領域と前記補正情報を用いて、前記撮像装置による前記部分領域の光学的劣化を補正した補正部分領域を生成する補正工程と、を有し、前記補正工程は、Nを2以上の整数、nを1からNまでの整数としたとき、前記部分領域に対して、前記補正情報に基づく複数の線型関数の各々による第n線型変換と、非線型関数による第n非線型変換と、をnが1からNになるまで順に実行することで中間データを生成し、前記中間データに対して、前記補正情報に基づく1つ以上の線型関数による第N+1線型変換を実行することにより前記補正部分領域を生成することを特徴とする。
また、上記の画像処理方法を実行する画像処理部を有する画像処理装置、撮像装置、上記の画像処理方法をコンピュータに実行させるプログラム、該プログラムを記憶した記憶媒体も本発明の一実施形態である。
本発明によれば、撮影画像における光学的劣化を高精度、且つ弊害を抑制して補正することができる。
実施例1におけるぼけ補正のネットワーク構造を示した図 実施例1における撮像装置のブロック図 実施例1における撮像装置の外観図 実施例1におけるぼけ補正のフローを示した図 実施例1及び2における補正情報の学習フローを示した図 実施例2における画像処理システムのブロック図 実施例2における画像処理システムの外観図 実施例2におけるぼけ補正のフローを示した図 実施例2におけるぼけ補正のネットワーク構造を示した図 実施例2における活性化関数を説明した図
以下、本発明の実施例について、図面を参照しながら詳細に説明する。各図において、同一の部材については同一の参照番号を付し、重複する説明は省略する。
まず、具体的な実施例の説明に先立って、本発明の要旨を説明する。本発明では、ディープラーニング(深層学習)を用いて、撮像装置を用いて撮影された画像(撮影画像)における光学的劣化を補正する。ここで光学的劣化とは、撮像装置内の光学系で発生する収差や回折、或いはデフォーカスによる劣化を指す。なお、撮像装置内の光学系には、レンズだけでなく、ローパスフィルタなどの光学素子も含まれる。
ここで、ディープラーニングを用いた本発明の画像処理方法と、特許文献1及び2の画像処理方法の違いに関して、簡単に説明する。Wienerフィルタ(特許文献1)では、ぼけ画像を1つの関数に入力することで、ぼけ補正画像を得る。RL法(特許文献2)では、ぼけ画像を1つの関数に入力し、その出力を新たな入力として同一の関数へ入力し、それを反復することでぼけ補正画像を得る。これらに対し、ディープラーニングは、ぼけ画像を多数の異なる関数へ入力し、それらの出力を前述の関数とは異なる多数の関数へさらに入力するという処理を繰り返す。該処理の詳細に関しては、後述する。このように、特許文献1及び2で用いられた手法に対して、ディープラーニングは複数の関数を利用するため、モデルの表現性が高い。そのため、WienerフィルタやRL法では記述できない解も表現することが可能となる。
さらに、ディープラーニングでは、各関数で使用されるパラメータが学習によって自動的に最適値へ設定される。特許文献1及び2の手法では、パラメータを手動で決定する必要があるため、それぞれの解空間の中で最適解を得ることが容易ではない。
これらの理由から、特許文献1及び2に記載された手法では達成困難であった、弊害が少なく、且つ補正効果の高い光学的劣化の補正処理が、ディープラーニングを用いることで可能となる。
本発明の画像処理方法を撮像装置へ適用した実施例1について述べる。図2は、実施例1の撮像装置100の基本構成を示している。図3は、実施例1の撮像装置100の外観を示している。実施例1では、光学系の収差と回折による光学的劣化を補正対象とする。デフォーカスの補正に関しては、実施例2で説明する。
撮像装置100は、被写体空間の情報を画像として取得する画像取得部101を有している。画像取得部101は、被写体空間からの光を集光する結像光学系101aと、複数の画素を有する撮像素子101bを有している。撮像素子101bは、例えばCCD(Charge Coupled Device)センサや、CMOS(Complementary Metal−Oxide Semiconductor)センサなどである。撮像素子101bで取得された画像には、結像光学系101aの収差や回折、又は撮影時におけるデフォーカスなどが作用しており、被写体空間の情報の一部が失われている。そのため、撮像素子101bで取得された画像を以後、ぼけ画像と呼称する。
画像処理部102は、ぼけ画像(入力画像)に対して本発明の画像処理方法を適用することにより、ぼけ補正を行う。画像処理部102は、学習部102a、補正部102bを有している。ぼけ補正の際には、記憶部103に記憶された結像光学系101aの光学的劣化(収差と回折)に対応する補正情報が呼び出されて使用される。この処理に関する詳細は後述する。ぼけ補正された画像(補正画像)は、液晶ディスプレイなどの表示部104に表示させたり、記録媒体105に保存したりすることができる。
なお、画像取得部101によってぼけ画像が撮影されたタイミングでぼけ補正を行ってもよいし、ぼけ画像を記録媒体105に保存しておき、任意のタイミングでぼけ補正を行ってもよい。任意のタイミングでぼけを補正する場合、撮影時における結像光学系101aの絞り値や撮影距離、焦点距離に関する情報(撮影条件情報)を、ぼけ画像と合わせて記録媒体105に保存しておく。撮影条件情報を読み出すことで、ぼけ画像に対応した収差と回折の情報を取得することができる。
結像光学系101aがズームレンズではなく単焦点レンズである場合は、焦点距離が一定であるため、焦点距離に関する情報を含まない撮影条件情報が取得されるようにしてもよい。デフォーカスを補正する場合は、さらに被写体空間の距離情報を含む撮影条件情報が必要である。撮像装置100がレンズ交換式である場合は、撮影時にどのレンズが装着されていたかを識別するためのレンズ識別情報を含む撮影条件情報が必要である。なお、撮影画像は動画でもよく、各フレームに対してぼけ補正を行なえばよい。以上の一連の制御は、システムコントローラ106によって行われる。
次に、画像処理部102で行われるぼけ補正について説明する。該ぼけ補正では、事前に学習された補正情報を用いるが、この学習方法に関しては、後述する。
図4は、ぼけ補正のフローチャートであり、補正部102bによって実行される。ステップS101では、ぼけ画像(入力画像)と該ぼけ画像の撮影条件情報を取得する。実施例1では、結像光学系101aがズームレンズのため、絞り値(絞り状態)、撮影距離(フォーカス状態)に加えて、焦点距離(変倍状態、ズーム状態)も撮影条件情報として取得する。ここで、絞り状態、フォーカス状態、変倍状態をまとめてレンズステートと呼ぶこととする。また、撮像素子101bがRGB(Red,Green,Blue)のベイヤー配列で構成されていた場合、ぼけ画像はデモザイキング前後のどちらの画像でもよい。
ステップS102では、ぼけ画像の一部である部分領域が取得される。ぼけ補正は、該部分領域を単位として行なう。
ステップS103では、撮影条件情報と部分領域の位置から、部分領域の光学的劣化を補正するための補正情報を取得する。本実施例で補正する結像光学系101aの収差と回折による光学的劣化は、結像光学系101aのレンズステートと像高に応じて変化するため、それに応じて補正情報も異なることとなる。故に、部分領域に対応する補正情報を取得するために、撮影条件情報と部分領域の位置に関する情報が必要となる。
ステップS104では、補正情報を用いて、部分領域における光学的劣化を補正した補正部分領域を生成する。ぼけ補正の詳細に関して、図1を用いて説明する。図1は、ディープラーニングの1つであるCNN(Convolutional Neural Network)のネットワーク構造を示している。ただし、本発明はCNNのみに限定されない。例えば、DBN(Deep Belief Network)などを用いても構わない。ただし、被写体に対する光学的劣化の作用がコンボリューションで記述されるため、コンボリューションを用いるCNNが、モデルのマッチングがよい。CNNとDBNの詳細に関しては、それぞれ非特許文献1及び非特許文献2に記載されている。
CNNは、複数の層構造になっており、各層で補正情報を用いた線型変換と非線型変換が実行される。ここで、nを1からNまでの整数としたとき、n番目の層を第n層、第n層における線型変換と非線型変換をそれぞれ第n線型変換、第n非線型変換と呼称する。ただし、Nは2以上の整数である。部分領域201は、第1層で複数のフィルタ202それぞれとのコンボリューション(第1線型変換)が演算され、その後、活性化関数(Activation Function)と呼ばれる非線型関数で変換(第1非線型変換)される。図1中で部分領域201が複数枚描画されているのは、複数のチャンネルを有しているからである。実施例1では、部分領域がRGBの3チャンネルを有している。ただし、チャンネル数はこれに限定されない。また、部分領域がRGBの3チャンネルを有していても、1チャンネルずつ個別にCNNへ入力しても構わない。この場合、収差と回折は光の波長によっても変化するため、チャンネルごとに異なる補正情報を使用する。複数チャンネルを一括で入力する場合は、前記の異なる補正情報が同時に使用される。
フィルタ202は複数存在し、それぞれと部分領域201とのコンボリューションを個別に算出する。フィルタ202を構成する係数は、補正情報から決定される。補正情報はフィルタの係数そのものでもよいし、フィルタを所定の関数でフィッティングした際の係数でもよい。フィルタ202それぞれのチャンネル数は、部分領域201と一致し、部分領域201のチャンネル数が2以上の場合、3次元フィルタとなる(3次元目がチャンネル数を表す)。また、前記コンボリューションの結果に対して、補正情報から決定される定数(負もとり得る)を加算してもよい。
フィルタ202による線型変換の後、活性化関数(図1中ではAFと記載)による非線型変換が施される。活性化関数f(x)の例としては、以下の式(1)乃至(3)が挙げられる。
式(1)はシグモイド関数、式(2)はハイパボリックタンジェント関数、式(3)はReLU(Rectified Linear Unit)と呼ばれる。式(3)中のmaxは、引数のうち最大値を出力するMAX関数を表す。式(1)乃至(3)は、全て単調増加関数である。また、活性化関数としてmax outを使用してもよいが、max outを使用した例は、実施例2で説明する。第1層で線型変換と非線型変換を施された部分領域を、第1変換部分領域203と呼称する。ここで、第1変換部分領域203の各チャンネル成分は、部分領域201とフィルタ202それぞれのコンボリューションから生成される。そのため、第1変換部分領域203のチャンネル数は、フィルタ202の数と同じになる。
第2層では、第1変換部分領域203に対して、第1層と同様に補正情報から決定される複数のフィルタ204とのコンボリューション(第2線型変換)と、活性化関数による非線型変換(第2非線型変換)を行なう。第2層で使用するフィルタ204は、第1層で使用するフィルタ202と一般に同一ではない。フィルタのサイズや数も一致しなくて良い。ただし、フィルタ204のチャンネル数と第1変換部分領域203のチャンネル数は一致する。同様の演算を第N層まで繰り返すことで、中間データ210を得る。最後に、第N+1層で中間データ210と1つ以上のフィルタ211とのコンボリューションと定数の加算(第N+1線型変換)から、光学的劣化の補正された補正部分領域212を得る。該フィルタ211と該定数も、補正情報から決定される。補正部分領域212のチャンネル数は、部分領域201と同じであり、そのためフィルタ211の数も部分領域201と同じになる。補正部分領域212の各チャンネルの成分は、中間データ210とフィルタ211それぞれ(1つの場合もある)とのコンボリューションを含む演算から求められる。なお、部分領域201と補正部分領域212のサイズは一致しなくてよい。コンボリューション時、部分領域の外側にはデータが存在しないため、データの存在する領域のみで演算すると、コンボリューション結果はサイズが小さくなる。ただし、周期境界条件などを設定することで、サイズを保つこともできる。
CNNは、活性化関数(非線型関数)を含むため、線型演算の逆フィルタでは求められない解を得ることができる。また、ディープラーニングは従来のニューラルネットワークに対して層の数が多いため、より高い性能を出すことができる。一般に、3層以上を有する場合(線型変換と非線形変換とを順に2回以上実行する場合)をディープラーニングと呼ぶ。ディープラーニングが性能を発揮するためには、特に活性化関数の存在が重要である。もし、活性化関数が存在しない、或いは線型関数だった場合、ネットワーク構造をいくら多層にしても、それと等価な単層の線型変換が存在するためである。
ステップS105では、ぼけ画像のうち既定の領域に対して、ぼけ補正が完了したか否かの判定を行なう。既定の領域において、ぼけ補正が行われていない部分領域がある場合は、ステップS102へ戻り、ぼけ補正されていない部分領域を取得して、補正部分領域を生成する処理を行なう(ステップS103、S104)。既定の領域の全領域においてぼけ補正が完了した場合は、ステップS106へ進み、補正画像を出力する。以上の処理によって、結像光学系101aの光学的劣化を補正した画像を得ることができる。
次に、補正情報の学習に関して、図5のフローチャートを用いて説明する。学習は、ぼけ補正前であれば、撮像装置100の画像処理部102で行なってもよいし、撮像装置100とは別の演算装置で行なってもよい。本実施例では、学習部102aで学習を実行する場合を例に挙げて説明する。補正情報の学習は、参照画像を結像光学系101aの光学的劣化によって劣化させたぼけ画像を生成し、両者の対応関係を用いることで行う。
ステップS201では、結像光学系101aにおける光学的劣化(実施例1では収差と回折)の情報を取得する。前述の通り収差と回折による劣化は、レンズステートや像高、又は光の波長によって変化する。そのため、補正情報を求めたいレンズステート、像高、波長を選択して、それに対応する光学的劣化の情報を取得する。本実施例において、光学的劣化の情報は、記憶部103に記憶されている。光学的劣化の情報は、例えばPSF(Point Spread Function、点像分布関数)やOTF(Optical Transfer Function、光学伝達関数)などに関する情報である。
ステップS202では、参照画像を取得する。参照画像は、単数でも複数でもよい。参照画像とそれをぼかした画像から補正情報を学習するため、参照画像には様々な周波数成分が含まれていることが望ましい。例えば、参照画像にエッジがない場合、ぼけたエッジを鮮鋭なエッジに戻す学習データが存在しないため、エッジに対するぼけ補正効果が充分に得られない可能性がある。また、ぼけ補正でリンギングの発生しやすい輝度飽和部なども、参照画像に含まれていることが望ましい。この際、正しいぼけ画像を得るため、参照画像は飽和値以上の輝度の値を有している(ハイダイナミックレンジである)ことが望ましい。すなわち、入力画像のダイナミックレンジよりも大きいダイナミックレンジを有する参照画像を学習に用いることが好ましい。これは、既に輝度飽和している画像に対してPSFをコンボリューションしても、被写体空間(輝度飽和は存在しない)を撮像した画像とは一致しないためである。輝度飽和部のぼけ前後の関係を学習することで、ぼけ補正時にリンギングが発生しにくくなる効果がある。
ステップS203では、光学的劣化の情報を用いて、参照画像から劣化参照画像を生成する。光学的劣化の情報がPSFなら、参照画像とのコンボリューションをとることで、劣化参照画像を得ることができる。OTFなら、参照画像の空間周波数スペクトルと積をとり、逆Fourier変換することで得られる。またこの際、必要に応じて劣化参照画像にノイズを付与しておくことが望ましい。撮像素子101bで取得された実際のぼけ画像には、ショットノイズなどが存在しているためである。劣化参照画像にノイズを付与することで、ぼけ補正時にノイズが増幅される弊害を抑制できる。参照画像が複数の場合は、それぞれに対して劣化参照画像を生成する。
ステップS204では、学習用部分領域と学習用劣化部分領域のペア(組)を複数取得する。学習用部分領域は参照画像から取得され、サイズはステップS104における補正部分領域と同じである。学習用劣化部分領域は、劣化参照画像から、該領域の中心が学習用部分領域と画像に対して同じ位置になるように取得される。そのサイズは、ステップS102におけるぼけ画像の部分領域と同じである。
ステップS205では、複数の学習用部分領域と学習用劣化部分領域のペア(合わせて学習用ペアと呼称する)から、補正情報を学習する。学習では、ぼけ補正と同じネットワーク構造を使用する。本実施例では、図1に示したネットワーク構造に対して学習用劣化部分領域を入力し、その出力結果と学習用部分領域の誤差を算出する。該誤差が最小化されるように、例えば誤差逆伝播法(Backpropagation)などを用いて、第1乃至第n層で用いる各フィルタの係数や加算する定数(補正情報)を更新、最適化する。各フィルタと定数の初期値はなんでもよい。例えば、乱数から決定するとよい。或いは、各層ごとに初期値を事前学習するAuto Encoderなどのプレトレーニングを行なってもよい。Auto Encoderに関しては、非特許文献3に記載されている。
学習用ペアを全てネットワーク構造へ入力し、それら全ての情報を使って補正情報を更新する手法をバッチ学習と呼ぶ。ただし、この学習方法は学習ペアの数が増えるにつれて、計算負荷が膨大になってしまう欠点がある。逆に、補正情報の更新に1つの学習ペアのみを使用し、更新ごとに異なる学習用ペアを使用する学習手法をオンライン学習と呼ぶ。この手法は、学習ペアが増えても計算量が増大しない利点があるが、その代わりに1つの学習用ペアに存在するノイズの影響を大きく受ける問題がある。そのため、これら2つの手法の中間に位置するミニバッチ法を用いて学習することが望ましい。ミニバッチ法は、全学習用ペアの中から少数を抽出し、それらを用いて補正情報の更新を行なう。次の更新では、異なる少数の学習用ペアを抽出して使用する。これを繰り返すことで、バッチ学習とオンライン学習の欠点を小さくすることができ、高いぼけ補正効果を得やすくなる。
ステップS206では、学習された補正情報を出力する。本実施例では、補正情報は記憶部103に記憶される。
ステップS201乃至S206を、結像光学系101aにおける全レンズステート、像高、及び波長の光学的劣化に対して実行すれば、結像光学系101aに対する補正情報が生成される。
以上の処理によって、弊害が少なく、且つ補正効果の高い光学的劣化の補正情報を学習することができる。
なお、本実施例では劣化参照画像を画像処理によって生成したが、実際に撮像装置100を用いて撮影した画像で代用してもよい。例えば、参照画像を印刷して撮像装置100で撮影することで、光学的劣化の作用した参照画像を得ることができる。ただし、撮像装置100の配置誤差などによる画像の位置ずれや、一度の撮影で得られる特定の光学的劣化(例えば軸上のPSF)に対する学習ペアが少ないことから、画像処理で生成する方が望ましい。
また、ステップS102におけるぼけ画像の部分領域のサイズは、該部分領域に作用している光学的劣化の情報に基づいて決定することが望ましい。例えば、PSFがm×m画素程度の拡がりを持っていたとすると、被写体空間の点像はm×m画素程度にぼけて広がることとなる。つまり、元の点像の情報はm×m画素程度の領域に含まれているため、それらの情報が含まれるように部分領域のサイズを決定することが望ましい。
同様に、CNN(図1のネットワーク構造)では、各層でフィルタをコンボリューションして光学的劣化の補正を行なうため、それらのフィルタが影響する範囲を合わせた範囲が、前記光学的劣化のぼけ量より小さいと正しく補正できない。例えば、全層数が2で、第1層のフィルタサイズが5×5、第2層のフィルタサイズが3×3の場合、ある画素の補正に使用できる範囲は、該画素を中心にした7×7画素となる。そのため、このネットワーク構造では、光学的劣化の拡がりが7画素以下になっていないと、高精度な補正ができない。故に、光学的劣化の拡がりに基づいて、ある画素の補正に使用される範囲(各層のフィルタのサイズで決まる)を決定することが望ましい。
より詳細には、以下の条件式(4)を満たすように、各層のフィルタのサイズを決定するとよい。
ここで、dはぼけ画像の画素に対するPSF(光学的劣化に対応)の拡がり、N+1は全層数である。また、sは第m線型変換で使用するフィルタのサイズであり、第1乃至第N+1線型変換のそれぞれにおけるフィルタの1次元サイズをs乃至sN+1とする。第m線型変換で複数のサイズのフィルタが混合して使用される場合、sは最大のフィルタサイズになる。式(4)の上限は、ある画素の補正に使用できる範囲が、劣化の大きさ以上であることを示している。下限は理論的に超えることができない。ここで、PSFの拡がりdは、PSFの重心からPSFの値が閾値以下まで減衰する位置までの幅を、画素の長さで除したものである。
さらに、収差と回折は、結像光学系101aが光軸に対して回転対称性を有している場合、方位角によって形状が変化しない(方位角だけPSFが回転する)。故に、同じ像高の部分領域に対しては同一の補正情報を使用することができ、学習負荷の軽減や補正情報の容量削減の効果が得られる。これを実現するには、以下の2つの方法が考えられる。1つ目は、ぼけ補正前に方位角を打ち消すよう、部分領域を回転することである。2つ目は、第1乃至第n層のフィルタを補正する部分領域の方位角に合わせて回転することである。
また、学習時に使用する光学的劣化の情報は、歪曲成分を含まないことが望ましい。図1のぼけ補正モデルは、補正前後で部分領域内の被写体が領域外へ出て行くこと、或いは領域外の被写体が領域内へ入ってくることを想定していないためである。故に、部分領域のサイズに対して歪曲収差が充分に小さい場合を除いて、学習、及びぼけ補正では歪曲収差を無視し、本発明のぼけ補正を行なった後に別途、歪曲補正処理をかけることが望ましい。この際、学習、及びぼけ補正で使用する像高は、歪曲収差が入った状態の像で考える。つまり、歪曲が負のとき、像高10割は歪曲補正後には10割よりも大きい位置を指している。なお、学習時の参照画像に予め歪曲収差を付与しておく必要はない。また、ぼけ補正の前に歪曲補正処理を行うこともできるが、この場合はぼけ補正前に補間処理が入るため、ぼけ補正後に歪曲補正処理を行うことが望ましい。
部分領域が複数のチャンネルを持ち、それらを一括でネットワーク構造へ入力する場合、倍率色収差も同様に学習時の光学的劣化の情報に含まれないことが望ましい。この理由は歪曲と同じで、部分領域の内外に被写体が移動してしまうからである。ただし、倍率色収差は歪曲収差と異なり、本発明のぼけ補正を使用する前にぼけ画像から補正しておく。すなわち、部分領域の倍率色収差を補正してから1回目の線型変換を実行することが好ましい。事前に倍率色収差を補正しないと、エッジが二重エッジなどになってしまう可能性があるためである。なお、部分領域が複数のチャンネルを持っていても、各チャンネルで個別にぼけ補正を行なう場合は、このような問題は発生しない。
また、本発明と合わせて、CNNの性能を向上させる工夫を併用してもよい。例えば、参照画像の数が充分でない場合に、参照画像に様々な変形を与えて学習データを増大させるデータオーグメンテーションを用いてもよい。或いは、学習精度の向上のため、参照画像の画素の平均値を0、分散を1に正規化し、隣接する画素の冗長性をなくすZCAホワイトニングなどを併用してもよい。データオーグメンテーションとZCAホワイトニングに関しては、非特許文献4及び非特許文献5にそれぞれ詳しく記載されている。
本実施例の画像処理方法は、撮像装置100を、本実施例の画像処理方法を実行するコンピュータとして機能させるためのプログラムにしたがって実行される。なお、プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録してもよい。
以上の構成によって、撮像装置を用いて撮影された画像の光学的劣化を高精度、且つ弊害を抑制して補正することが可能な撮像装置を提供することができる。
本発明の画像処理方法を画像処理システムに適用した実施例2に関して述べる。実施例2では、本発明のぼけ補正を行なう画像処理装置と、ぼけ画像を得る撮像装置、学習を行なうサーバーが個別に存在している。また、補正する光学的劣化として、デフォーカスを扱う。
図6は、実施例2の画像処理システムの基本構成を示している。図7は、実施例2の画像処理システムの外観を示している。撮像装置300は、被写体空間のデプスマップ(被写体距離の分布に関する情報)を取得するデプスマップ取得部を有している。デプスマップを取得する構成としては、例えば、視差を利用した複数視点の撮像系(多眼カメラやプレノプティックカメラなど)や、ToF(Time of Flight)、或いはDFD(Depth from Defocus)などが知られている。撮像装置300のその他の基本構成に関しては、ぼけ補正と学習に関する画像処理部を除いて、図2に示したものと同様である。
撮像装置300で撮影されたぼけ画像(入力画像)と撮影条件情報(デプスマップを含む)は、画像処理装置301内の記憶部302に記憶される。画像処理装置301は、ネットワーク304と有線、又は無線で接続されており、同様に接続されたサーバー305にアクセスする。サーバー305は、撮像装置300で発生する光学的劣化を補正するための補正情報を学習する学習部307と、該補正情報を記憶する記憶部306を有している。画像処理装置301は、サーバー305の記憶部306から補正情報を取得し、補正部303でぼけ画像の光学的劣化を補正する。
生成された補正画像は、表示装置308、記録媒体309、出力装置310の少なくとも何れかに出力される。表示装置308は、例えば液晶ディスプレイやプロジェクタなどである。ユーザーは表示装置308を介して、処理途中の画像を確認しながら作業を行うことができる。記録媒体309は、例えば半導体メモリ、ハードディスク、ネットワーク上のサーバー等である。出力装置310は、プリンタなどである。画像処理装置301は、必要に応じて現像処理やその他の画像処理を行う機能を有していてよい。
次に、図8のフローチャートを用いて、補正部303で行なわれるぼけ補正処理を説明する。
ステップS301では、撮像装置300で撮影されたぼけ画像と、該ぼけ画像のデプスマップを含む撮影条件情報を取得する。また、本実施例では撮像装置300がレンズ交換式カメラのため、撮影時に装着していたレンズの識別情報も撮影条件情報に含まれる。
ステップS302では、ステップS301で取得したデプスマップを用いて、距離が概ね同一とみなせる領域(同じ補正情報を用いて補正可能な領域)から部分領域を取得する。
ステップS303では、撮影時の撮影距離(フォーカス状態)と部分領域における被写体の距離情報(デプス情報)から、部分領域のデフォーカス量に応じた補正情報を取得する。部分領域の位置に応じて、被写体距離は異なるので、部分領域の位置によって補正情報は異なることとなる。また、像高によって、撮像装置300内に含まれる結像光学系のヴィネッティングが変化するため、同じデフォーカス量でも像高に応じてぼけ像が変化する。そのため、像高に基づいて補正情報が決定される。
ステップS304では、図9に示したネットワーク構造を用いて、デフォーカスによるぼけを補正した補正画像を生成する。図9に示した本実施例のネットワーク構造と図1に示した実施例1のネットワーク構造の違いは、活性化関数にmax outを使用していることである。部分領域401は、第1層で複数のフィルタ402それぞれとコンボリューションが演算され、さらに定数が加算される(第1線型変換)。フィルタ402の各係数と定数は、補正情報によって決定される。各線型変換の結果は、活性化関数(max out)に入力される。図10を用いて、max outの説明を行なう。max outは、線型変換の結果421乃至423の各画素に対して、その最大値を出力する活性化関数である。例えば、第1層でのmax outの出力(第1変換部分領域)403において、画素441は、線型変換の結果421乃至423における同一位置の画素431乃至433のうちの最大値となる。つまり、max outは線型変換の結果421乃至423を引数として、該引数のうち最大値を各画素に対して出力するMAX関数である。またその性質から、第1変換部分領域403のチャンネル数は1となる。図9における第2層以降の説明は、図1と同様である。
ステップS305では、ぼけ画像のうち既定の領域に対して、ぼけ補正が完了したか否かの判定を行なう。既定の領域において、ぼけ補正が行われていない部分領域がある場合は、ステップS302へ戻り、ぼけ補正されていない部分領域を取得して、補正部分領域を生成する処理を行なう(ステップS303、S304)。既定の領域の全領域においてぼけ補正が完了した場合は、ステップS306へ進む。
ステップS306では、デフォーカス補正によって、ピントずれが補正された補正画像、或いは被写界深度の拡張された補正画像が出力される。
ぼけ補正で使用される補正情報は、実施例1と同様に図5に示したフローチャートに従って学習される。本実施例では、デフォーカスによるぼけを補正対象とする。このため、光学的劣化の情報の取得(ステップS201)では、焦点距離(変倍状態)、絞り値(絞り状態(ヴィネッティングを含む))、撮影距離(フォーカス状態)、被写体の距離情報に基づいて決定されるデフォーカスのぼけに関する情報を取得する。ステップS202乃至S206は実施例1と同様であるため、説明を省略する。
本実施例の画像処理方法は、画像処理装置301を、本実施例の画像処理方法を実行するコンピュータとして機能させるためのプログラムにしたがって実行される。なお、プログラムは、例えば、コンピュータに読み取り可能な記録媒体に記録してもよい。
以上の構成によって、撮像装置の光学的劣化を高精度、且つ弊害を抑制して補正することが可能な画像処理システムを提供することができる。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されたものではなく、その要旨の範囲内で様々な変形、及び変更が可能である。
すなわち、実施例1で示したように収差と回折を補正する画像処理方法を実施例2で示すような画像処理システムで実行したり、実施例2の画像処理方法を実施例1で示したような撮像装置で実行したりすることもできる。また、光学的劣化として収差と回折とデフォーカスによるぼけの全てを補正するようにしてもよい。
また、撮像装置で撮影されたぼけ画像と撮影条件情報を、撮像装置または該撮像装置に有線または無線で接続された画像処理装置からネットワーク上のサーバーに送信し、ネットワーク上のサーバーにおいて本発明の画像処理方法を実行してもよい。ネットワーク上のサーバーで生成された補正画像は撮像装置または画像処理装置からサーバーにアクセスすることにより取得することができる。
本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
201、401 部分領域
202、402 フィルタ
203、403 第1変換部分領域
204、404 フィルタ
210、410 中間データ
211、411 フィルタ
212、412 補正部分領域
421、422、423 線型変換の結果
431、432、433 max outへ入力される画素
441 max outから出力される画素

Claims (23)

  1. 撮像装置を用いて撮影された入力画像の部分領域を取得する工程と、
    前記部分領域の位置に応じて異なる、予め学習された補正情報を取得する工程と、
    前記部分領域と前記補正情報を用いて、前記撮像装置による前記部分領域の光学的劣化を補正した補正部分領域を生成する補正工程と、
    を有し、
    前記補正工程は、Nを2以上の整数、nを1からNまでの整数としたとき、前記部分領域に対して、前記補正情報に基づく複数の線型関数の各々による第n線型変換と、非線型関数による第n非線型変換と、をnが1からNになるまで順に実行することで中間データを生成し、前記中間データに対して、前記補正情報に基づく1つ以上の線型関数による第N+1線型変換を実行することにより前記補正部分領域を生成することを特徴とする画像処理方法。
  2. 前記第1乃至第N線型変換は、前記補正情報に基づく複数のフィルタの各々とのコンボリューションを含むことを特徴とする請求項1に記載の画像処理方法。
  3. 前記コンボリューションは、実行されるたびに異なるフィルタが用いられることを特徴とする請求項2に記載の画像処理方法。
  4. 前記第N+1線型変換は、1つ以上のフィルタとのコンボリューションであり、
    前記第1乃至第N+1線型変換のそれぞれにおけるフィルタのサイズは、前記光学的劣化の情報に基づいて決定されることを特徴とする請求項2又は3に記載の画像処理方法。
  5. 前記第N+1線型変換は、1つ以上のフィルタとのコンボリューションであり、
    前記光学的劣化に対応する点像分布関数の拡がりをdとし、前記第1乃至第N+1線型変換のそれぞれにおけるフィルタの1次元サイズをs1乃至sN+1としたとき、

    なる条件式を満たすことを特徴とする請求項2乃至4の何れか1項に記載の画像処理方法。
  6. 前記中間データに用いられるフィルタの数は、前記部分領域のチャンネル数と同一であり、
    前記補正部分領域の各チャンネル成分は、前記中間データと前記フィルタの各々とのコンボリューションを含む演算で算出されること特徴とする請求項1乃至5の何れか1項に記載の画像処理方法。
  7. 前記非線型関数は、単調増加関数、又は引数のうち最大値を出力するMAX関数を含むことを特徴とする請求項1乃至6の何れか1項に記載の画像処理方法。
  8. 前記部分領域のサイズは、前記光学的劣化の情報に基づいて決定されることを特徴とする請求項1乃至7の何れか1項に記載の画像処理方法。
  9. 前記補正情報は、像高が同一の前記部分領域に対しては同一の値を取得し、
    前記部分領域を回転してから前記補正工程を実行することを特徴とする請求項1乃至8の何れか1項に記載の画像処理方法。
  10. 前記補正情報は、像高が同一の前記部分領域に対しては同一の値を取得し、
    前記補正情報に基づく複数のフィルタを回転してから前記補正工程を実行することを特徴とする請求項2乃至8の何れか1項に記載の画像処理方法。
  11. 前記補正情報は、参照画像と前記光学的劣化の情報を用いて学習されたものであることを特徴とする請求項1乃至10の何れか1項に記載の画像処理方法。
  12. 前記学習に用いられる参照画像は、前記入力画像のダイナミックレンジよりも大きいダイナミックレンジを有する画像を含むことを特徴とする請求項11に記載の画像処理方法。
  13. 前記補正情報は、前記光学的劣化の情報を用いて前記参照画像から劣化参照画像を生成し、前記参照画像の部分領域と前記劣化参照画像の部分領域との複数の組を用いて学習されたものであることを特徴とする請求項11または12に記載の画像処理方法。
  14. 前記補正情報は、前記参照画像の部分領域とノイズが付与された劣化参照画像の部分領域との複数の組を用いて学習されたものであることを特徴とする請求項13に記載の画像処理方法。
  15. 前記学習に用いられる光学的劣化の情報は、歪曲収差を含まないことを特徴とする請求項11乃至14の何れか1項に記載の画像処理方法。
  16. 前記入力画像の各部分領域について補正部分領域を生成することにより得られる補正画像に対して歪曲収差の補正処理を行うことを特徴とする請求項15に記載の画像処理方法。
  17. 前記部分領域は、複数のチャンネルを有し、
    前記補正工程は、前記部分領域の倍率色収差を補正してから1回目の前記線型変換を実行することを特徴とする請求項1乃至16の何れか1項に記載の画像処理方法。
  18. 前記部分領域は、複数のチャンネルを有し、
    前記補正情報は、前記チャンネルによって異なる値であり、
    前記補正工程は、前記部分領域のチャンネルごとに実行されることを特徴とする請求項1乃至16の何れか1項に記載の画像処理方法。
  19. 前記補正情報は、予め学習された畳み込みニューラルネットワークに関する情報であることを特徴とする請求項1乃至18の何れか一項に記載の画像処理方法。
  20. 請求項1乃至19の何れか1項に記載の画像処理方法を実行する画像処理部と、
    前記補正情報を記憶する記憶部と、を有することを特徴とする画像処理装置。
  21. 被写体空間の画像を入力画像として取得する画像取得部と、
    請求項1乃至19の何れか1項に記載の画像処理方法を実行する画像処理部と、
    前記補正情報を記憶する記憶部と、を有することを特徴とする撮像装置。
  22. コンピュータに画像処理を実行させるプログラムであって、請求項1乃至19の何れか1項に記載の画像処理方法を前記画像処理として実行させるプログラム。
  23. 請求項22に記載のプログラムを記憶したコンピュータが読み取り可能な記録媒体。
JP2018535995A 2016-08-25 2016-08-25 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体 Active JP6728365B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/074723 WO2018037521A1 (ja) 2016-08-25 2016-08-25 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2018037521A1 JPWO2018037521A1 (ja) 2019-06-20
JP6728365B2 true JP6728365B2 (ja) 2020-07-22

Family

ID=61243063

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018535995A Active JP6728365B2 (ja) 2016-08-25 2016-08-25 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体

Country Status (4)

Country Link
US (1) US10354369B2 (ja)
JP (1) JP6728365B2 (ja)
CN (1) CN109644230B (ja)
WO (1) WO2018037521A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10365606B2 (en) * 2017-04-07 2019-07-30 Thanh Nguyen Apparatus, optical system, and method for digital holographic microscopy
DE102018201794B3 (de) * 2018-02-06 2019-04-11 Heidelberger Druckmaschinen Ag Adaptive Bildglättung
JP6476531B1 (ja) * 2018-03-06 2019-03-06 株式会社ツバサファクトリー 処理装置、処理方法、コンピュータプログラム及び処理システム
JP7169768B2 (ja) * 2018-05-08 2022-11-11 キヤノン株式会社 画像処理装置、画像処理方法
JP7129229B2 (ja) * 2018-06-07 2022-09-01 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
US11195257B2 (en) * 2018-08-24 2021-12-07 Canon Kabushiki Kaisha Image processing method, image processing apparatus, imaging apparatus, lens apparatus, storage medium, and image processing system
TWI820194B (zh) * 2018-08-31 2023-11-01 日商索尼半導體解決方案公司 電子機器及固體攝像裝置
US11030724B2 (en) 2018-09-13 2021-06-08 Samsung Electronics Co., Ltd. Method and apparatus for restoring image
US11080832B2 (en) * 2018-09-26 2021-08-03 Canon Kabushiki Kaisha Image processing method, image processing apparatus, imaging apparatus, and storage medium
US11308592B2 (en) * 2018-10-04 2022-04-19 Canon Kabushiki Kaisha Image processing method, image processing apparatus, imaging apparatus, and storage medium, that correct a captured image using a neutral network
JP7414430B2 (ja) * 2018-10-04 2024-01-16 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、画像処理システム、プログラム、および、記憶媒体
DE102018222147A1 (de) 2018-12-18 2020-06-18 Leica Microsystems Cms Gmbh Optikkorrektur durch Maschinenlernen
WO2020176007A1 (en) * 2019-02-27 2020-09-03 Huawei Technologies Co., Ltd. An image processing apparatus and method
WO2020187425A1 (en) * 2019-03-21 2020-09-24 Huawei Technologies Co., Ltd. Depth of field image refocusing
JP7016835B2 (ja) * 2019-06-06 2022-02-07 キヤノン株式会社 画像処理方法、画像処理装置、画像処理システム、学習済みウエイトの製造方法、および、プログラム
JPWO2021060445A1 (ja) * 2019-09-27 2021-04-01
JP7455542B2 (ja) * 2019-09-27 2024-03-26 キヤノン株式会社 画像処理方法、プログラム、画像処理装置、学習済みモデルの製造方法、および、画像処理システム
KR102212964B1 (ko) * 2019-10-10 2021-02-08 주식회사 인트로메딕 디블러링 영상 처리 방법 및 장치
JP6804613B1 (ja) * 2019-10-15 2020-12-23 エヌエイチエヌ コーポレーション サーバ、プログラム、方法及びシステム
JPWO2021095256A1 (ja) * 2019-11-15 2021-05-20
JP7365204B2 (ja) 2019-11-18 2023-10-19 株式会社東海理化電機製作所 学習装置、および学習方法
CN113139911A (zh) * 2020-01-20 2021-07-20 北京迈格威科技有限公司 图像处理方法及装置、图像处理模型的训练方法及装置
JP2021149473A (ja) * 2020-03-18 2021-09-27 株式会社リコー 画像処理装置、画像処理方法および画像処理プログラム
CN111968052B (zh) * 2020-08-11 2024-04-30 北京小米松果电子有限公司 图像处理方法、图像处理装置及存储介质
CN111932462B (zh) * 2020-08-18 2023-01-03 Oppo(重庆)智能科技有限公司 图像降质模型的训练方法、装置和电子设备、存储介质

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04200081A (ja) * 1990-11-29 1992-07-21 Olympus Optical Co Ltd 撮像装置
JPH1131214A (ja) * 1997-07-10 1999-02-02 Hitachi Medical Corp 画像処理装置
EP1104180B1 (de) * 1999-11-26 2011-01-19 INB Vision AG Verfahren und Einrichtung zur Bestimmung und mindestens teilweisen Korrektur der Fehler eines Bildwiedergabesystems
US7843493B2 (en) * 2006-01-31 2010-11-30 Konica Minolta Holdings, Inc. Image sensing apparatus and image processing method
US8144984B2 (en) * 2006-12-08 2012-03-27 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program for color fringing estimation and compensation
WO2008149363A2 (en) * 2007-06-05 2008-12-11 Dblur Technologies Ltd. Non-linear transformations for enhancement of images
JP5506272B2 (ja) * 2009-07-31 2014-05-28 富士フイルム株式会社 画像処理装置及び方法、データ処理装置及び方法、並びにプログラム
JP5809865B2 (ja) 2011-07-19 2015-11-11 株式会社 日立産業制御ソリューションズ 画像処理装置及び画像処理方法
JP5361976B2 (ja) * 2011-08-25 2013-12-04 キヤノン株式会社 画像処理プログラム、画像処理方法、画像処理装置及び撮像装置
WO2014148074A1 (ja) * 2013-03-18 2014-09-25 富士フイルム株式会社 復元フィルタ生成装置及び方法、画像処理装置及び方法、撮像装置、プログラム、並びに記録媒体
JP2015216576A (ja) 2014-05-13 2015-12-03 ソニー株式会社 画像処理装置、画像処理方法、撮像装置、電子機器、並びにプログラム
JP6573386B2 (ja) * 2014-12-01 2019-09-11 キヤノン株式会社 制御装置、レンズ装置、画像処理システム、制御方法、画像処理方法、プログラム、および、記憶媒体
US11144785B2 (en) * 2016-03-17 2021-10-12 Imagia Cybernetics Inc. Method and system for processing a task with robustness to missing input information

Also Published As

Publication number Publication date
WO2018037521A1 (ja) 2018-03-01
US20180061020A1 (en) 2018-03-01
US10354369B2 (en) 2019-07-16
CN109644230A (zh) 2019-04-16
CN109644230B (zh) 2020-10-30
JPWO2018037521A1 (ja) 2019-06-20

Similar Documents

Publication Publication Date Title
JP6728365B2 (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、記憶媒体
JP5824297B2 (ja) 画像処理装置及び方法、及び撮像装置
JP7362284B2 (ja) 画像処理方法、画像処理装置、プログラム、画像処理システム、および、学習済みモデルの製造方法
JP6910780B2 (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体
JP2012114849A (ja) 画像処理装置、及び画像処理方法
TWI507808B (zh) 攝影裝置
JP2014192528A (ja) 撮像装置、画像処理システム、撮像システム、画像処理方法、画像処理プログラム、および、記憶媒体
CN111010504B (zh) 图像处理方法、装置和系统、摄像装置及存储介质
JP2013045404A (ja) 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
JP2015115733A (ja) 画像処理方法、画像処理装置、撮像装置および画像処理プログラム
JP7146461B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
JP2012156715A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム。
JP2012156716A (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム。
JP7191588B2 (ja) 画像処理方法、画像処理装置、撮像装置、レンズ装置、プログラム、および、記憶媒体
US11080832B2 (en) Image processing method, image processing apparatus, imaging apparatus, and storage medium
JP7309520B2 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、記憶媒体、画像処理システム、および、学習済みモデルの製造方法
JP7414430B2 (ja) 画像処理方法、画像処理装置、撮像装置、画像処理システム、プログラム、および、記憶媒体
JP6333076B2 (ja) 撮像装置、撮像装置の制御方法、プログラム、および、記憶媒体
JP6487008B1 (ja) 高解像度撮像装置
JP7009219B2 (ja) 画像処理方法、画像処理装置、撮像装置、画像処理プログラム、および、記憶媒体
JP2012156714A (ja) プログラム、画像処理装置、画像処理方法および撮像装置。
WO2019235258A1 (ja) 画像処理方法、画像処理装置、撮像装置、プログラム、および、記憶媒体
WO2011121761A1 (ja) 画像処理装置、およびそれを用いた撮像装置
JP6221399B2 (ja) 撮像システムおよび結像光学系および撮像システムの製造方法
JP2015109562A (ja) 画像処理装置、撮像装置、制御方法、及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190822

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200701

R151 Written notification of patent or utility model registration

Ref document number: 6728365

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151