JP2014164574A - 画像処理装置、画像処理方法および画像処理プログラム - Google Patents
画像処理装置、画像処理方法および画像処理プログラム Download PDFInfo
- Publication number
- JP2014164574A JP2014164574A JP2013035813A JP2013035813A JP2014164574A JP 2014164574 A JP2014164574 A JP 2014164574A JP 2013035813 A JP2013035813 A JP 2013035813A JP 2013035813 A JP2013035813 A JP 2013035813A JP 2014164574 A JP2014164574 A JP 2014164574A
- Authority
- JP
- Japan
- Prior art keywords
- image
- blur
- input image
- degree
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000003672 processing method Methods 0.000 title description 6
- 238000012545 processing Methods 0.000 claims abstract description 192
- 238000000034 method Methods 0.000 claims description 128
- 238000004364 calculation method Methods 0.000 claims description 22
- 230000003287 optical effect Effects 0.000 claims description 6
- 238000009499 grossing Methods 0.000 claims description 5
- 230000006866 deterioration Effects 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 18
- 239000011159 matrix material Substances 0.000 description 12
- 238000003384 imaging method Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000006073 displacement reaction Methods 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
Abstract
【課題】入力画像群の各入力画像に異なるぼけ度合いのぼけが含まれていても、画質の劣化を抑えて高解像度画像を生成することが可能な画像処理装置を提供する。
【解決手段】画像処理装置1は、それぞれが共通する部分領域を有する入力画像群のうちの1つの入力画像を基準画像とし、基準画像以外の入力画像を参照画像としてテンプレートマッチング処理を行なうことで、参照画像のぼけ度合いを推定するためのぼけ度合推定部323と、参照画像について、推定されたぼけ度合いをパラメーターとして用いて超解像処理を実行するための超解像処理部36とを備え、ぼけ度合推定部323は、基準画像に対してぼけ度合いに応じたぼけを付加してテンプレートマッチング処理に用いる。
【選択図】図1
【解決手段】画像処理装置1は、それぞれが共通する部分領域を有する入力画像群のうちの1つの入力画像を基準画像とし、基準画像以外の入力画像を参照画像としてテンプレートマッチング処理を行なうことで、参照画像のぼけ度合いを推定するためのぼけ度合推定部323と、参照画像について、推定されたぼけ度合いをパラメーターとして用いて超解像処理を実行するための超解像処理部36とを備え、ぼけ度合推定部323は、基準画像に対してぼけ度合いに応じたぼけを付加してテンプレートマッチング処理に用いる。
【選択図】図1
Description
この発明は画像処理装置、画像処理方法および画像処理プログラムに関し、特に、解像度を向上させる処理を行なう画像処理装置、画像処理方法および画像処理プログラムに関する。
それぞれが共通する部分領域を有し、低解像度である多視点の入力画像群や連続した入力画像群から1枚の高解像度画像を生成する画像処理技術がある。このような処理は、超解像処理とも呼ばれる。
入力画像ごと、または入力画像の部分領域ごとにピントの合っていない状態であるぼけ方が異なると、これら入力画像群に対して超解像処理を施しても解像度が向上しない。
このような問題に対して、特開2010−73074号公報(以下、特許文献1)は、間違えて、フォーカスの合っていない被写体の解像度を上げないように、画像のテクスチャー量などを用いて領域ごとにぼけを推定し、ぼけ度合いに応じて解像力を上げる技術を開示している。また、特開2009−194896号公報(以下、特許文献2)は、画像の高周波成分からぼけ度合いを推定し、ぼけの少ない画像を初期画像に選んで超解像処理を実行する技術を開示している。また、特開2007−193508号公報(以下、特許文献3)は、画像の領域ごとに高周波成分を用いてぼけ度合いを推定し、超解像のパラメーターを切り替える技術を開示している。
しかしながら、上記特許文献2の技術では、ぼけ度合いの推定が位置ずれの推定から独立して行なわれるものであるため、ぼけ度合いの差異が大きいと位置ずれの推定精度が低下して超解像処理後の画質が劣化してしまうという問題がある。また、特許文献2の技術では、ぼけ度合いをそのまま超解像処理に利用するものではないため、ぼけによる超解像処理後の画質の劣化を適切に抑えるができないという問題がある。
また、上記特許文献3の技術は画像のシーンの高周波成分の違いに対応するための処理であり、入力画像ごとのぼけ度合いの違いには対応することができない。
本発明はこのような問題に鑑みてなされたものであって、入力画像に異なるぼけ度合いのぼけが含まれていても、画質の劣化を抑えて高解像度画像を生成することが可能な画像処理装置、画像処理方法および画像処理プログラムを提供することを目的としている。
上記目的を達成するために、本発明のある局面に従うと、画像処理装置は、それぞれが共通する部分領域を有する入力画像群から、入力画像よりも高い周波数情報を持つ高解像度画像を作成して出力する画像処理装置であって、入力画像群のうちの1つの入力画像を基準画像とし、基準画像以外の入力画像を参照画像としてテンプレートマッチング処理を行なうことで、参照画像のぼけ度合いを推定するための推定手段と、参照画像について、推定されたぼけ度合いをパラメーターとして用いて超解像処理を実行するための処理手段とを備え、推定手段は、基準画像に対してぼけ度合いに応じたぼけを付加してテンプレートマッチング処理に用いる。
好ましくは、処理手段は、入力画像について推定されたぼけ度合いから、超解像処理に用いるパラメーターを算出するための算出手段を含む。
好ましくは、推定手段は、基準画像に対して平滑化フィルターを適用することでぼけを付加した画像を生成する。
好ましくは、推定手段は、入力画像群の中でぼけ度合いの最も小さい入力画像を基準画像として用いる。
好ましくは、処理手段は、推定されたぼけ度合いが同じ入力画像ごとに、超解像処理に含まれる、入力画像に対して補間処理を施して入力画像の解像度を変換することで作成される出力候補画像と入力画像群の入力画像それぞれとを比較することで残差を算出する処理を実行する。
好ましくは、処理手段は、入力画像群のうちの、テンプレートマッチング処理での基準画像への一致度合いが規定度合い以上である領域を用いて超解像処理を実行する。
好ましくは、推定手段は、テンプレートマッチング処理を行なうことで、算出画像における基準画像に相当する位置をさらに推定する。
好ましくは、入力画像群は、互いに光軸が異なる複数レンズを含んだレンズアレイで得られる画像群である。
本発明の他の局面に従うと、画像処理方法は、それぞれが共通する部分領域を有する入力画像群から、入力画像よりも高い周波数情報を持つ高解像度画像を出力画像として生成する方法であって、入力画像群のうちの1つの入力画像を基準画像とし、基準画像以外の入力画像を参照画像としてテンプレートマッチング処理を行なうことで、参照画像のぼけ度合いを推定するステップと、参照画像について、推定されたぼけ度合いをパラメーターとして用いて超解像処理を実行するステップとを備え、参照画像のぼけ度合いを推定するステップは、基準画像に対してぼけ度合いに応じたぼけを付加してテンプレートマッチング処理に用いる画像を生成するステップを含む。
本発明のさらに他の局面に従うと、画像処理プログラムは、コンピューターに、それぞれが共通する部分領域を有する入力画像群から、入力画像よりも高い周波数情報を持つ高解像度画像を出力画像として生成する処理を実行させるプログラムであって、入力画像群のうちの1つの入力画像を基準画像とし、基準画像以外の入力画像を参照画像としてテンプレートマッチング処理を行なうことで、参照画像のぼけ度合いを推定するステップと、参照画像について、推定されたぼけ度合いをパラメーターとして用いて超解像処理を実行するステップとをコンピューターに実行させ、参照画像のぼけ度合いを推定するステップは、基準画像に対してぼけ度合いに応じたぼけを付加してテンプレートマッチング処理に用いる画像を生成するステップを含む。
この発明によると、入力画像群の各入力画像に異なるぼけ度合いのぼけが含まれていても、画質の劣化を抑えて高解像度画像を生成することができる。
以下に、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらの説明は繰り返さない。
なお、以下の例では、入力画像群として、視点の異なる複数のレンズを有するアレイカメラによって同時に撮影された複数の撮影画像を用いるものとしているが、入力画像群はこのような撮影画像に限定されるものではない。一つの高解像度画像を得るために、それぞれの画像に共通する部分領域があれば適応可能で、他の例として、連続して撮影された複数の撮影画像が用いられてもよい。
<システム構成>
図1は、本実施の形態にかかる画像処理装置1の構成の基本的構成を示すブロック図である。
図1は、本実施の形態にかかる画像処理装置1の構成の基本的構成を示すブロック図である。
図1を参照して、画像処理装置1は、撮像部2と、画像処理部3と、画像出力部4とを含む。図1に示す画像処理装置1においては、撮像部2が被写体を撮像することで画像(以下、「入力画像」とも称する)を取得し、画像処理部3がこの取得された入力画像に対して後述するような画像処理を行なうことで、入力画像よりも高周波数成分を有する高解像度の出力画像(以下、「高解像度画像」とも称する)を生成する。そして、画像出力部4は、この高解像度画像を表示デバイスなどへ出力する。
撮像部2は、対象物(被写体)を撮像して入力画像を生成する。より具体的には、撮像部2は、カメラ22と、カメラ22と接続されたA/D(Analog to Digital)変換部24とを含む。A/D変換部24は、カメラ22により撮像された被写体を示す入力画像を出力する。
カメラ22は、被写体を撮像するための光学系であって、アレイカメラである。すなわち、カメラ22は、格子状に配置された視点の異なるN個のレンズ22a−1〜22a−n(これらを代表させて、レンズ22aとも称する)と、レンズ22aにより形成された光学像を電気信号に変換するデバイスである撮像素子(イメージセンサー)22bとを含む。
A/D変換部24は、撮像素子22bから出力される被写体を示す映像信号(アナログ電気信号)をデジタル信号に変換して出力する。撮像部2はさらに、カメラ各部分を制御するための制御処理回路などを含み得る。
画像処理部3は、撮像部2によって取得された入力画像に対して、本実施の形態に従う画像処理方法を実施することで高解像度画像を生成する。より具体的には、画像処理部3は、後述する位置ずれ推定処理を行なうための位置ずれ推定部32と、超解像処理部36とを含む。位置ずれ推定部32は、さらに第1の位置ずれ推定処理を行なうための第1推定部321と第2の位置ずれ推定処理を行なうための第2推定部322とを含み、第2推定部322は、さらに、後述するぼけ度合い推定処理を行なうためのぼけ度合い推定部323を含む。また、超解像処理部36は、さらに、推定された位置ずれやぼけ度合いに基づいて、超解像処理に用いるパラメーターを算出するための算出部361を含む。
超解像処理部36は、入力画像に対して後述する超解像処理を行なう。超解像処理とは、入力画像が持つナイキスト周波数を超える周波数情報を生成する処理である。その際に、位置ずれ推定部32は、後述する第1の位置ずれ推定処理および第2の位置ずれ推定処理を行なって、入力画像それぞれについて、基準画像からの位置ずれを推定する。また、ぼけ度合い推定部323は、第2の位置ずれ推定処理の際にぼけ度合い推定処理を行なって、入力画像それぞれについて、基準画像からのぼけ度合いを推定する。
画像出力部4は、画像処理部3によって生成される高解像度画像を表示デバイスなどへ出力する。
図1に示す画像処理装置1は、各部を独立の装置で具現化したシステムとして構成することもできるが、汎用的には、以下に説明するデジタルカメラやパーソナルコンピューターなどとして具現化される場合が多い。そこで、本実施の形態に従う画像処理装置1の具現化例として、デジタルカメラでの具現化例とPC(パーソナルコンピューター)での具現化例とについて説明する。
図2は、図1に示す画像処理装置1を具現化したデジタルカメラ100の構成を示すブロック図である。図2において、図1に示す画像処理装置1を構成するそれぞれのブロックに対応するコンポーネントには、図1と同一の参照符号を付している。
図2を参照して、デジタルカメラ100は、CPU(Central Processing Unit)102と、デジタル処理回路104と、画像表示部108と、カードインターフェイス(I/F)110と、記憶部112と、カメラ部114とを含む。
CPU102は、予め格納されたプログラムなどを実行することで、デジタルカメラ100の全体を制御する。デジタル処理回路104は、本実施の形態に従う画像処理を含む各種のデジタル処理を実行する。デジタル処理回路104は、典型的には、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、LSI(Large Scale Integration)、FPGA(Field-Programmable Gate Array)などによって構成される。このデジタル処理回路104は、図1に示す画像処理部3が提供する機能を実現するための画像処理回路106を含む。
画像表示部108は、カメラ部114により提供される入力画像、デジタル処理回路104(画像処理回路106)によって生成される出力画像、デジタルカメラ100に係る各種設定情報、および、制御用GUI(Graphical User Interface)画面などを表示する。
カードインターフェイス(I/F)110は、画像処理回路106によって生成された画像データを記憶部112へ書き込み、あるいは、記憶部112から画像データなどを読み出すためのインターフェイスである。記憶部112は、画像処理回路106によって生成された画像データや各種情報(デジタルカメラ100の制御パラメーターや動作モードなどの設定値)を格納する記憶デバイスである。この記憶部112は、フラッシュメモリ、光学ディスク、磁気ディスクなどからなり、データを不揮発的に記憶する。
カメラ部114は、被写体を撮像することで入力画像を生成する。
図2に示すデジタルカメラ100は、本実施の形態に従う画像処理装置1の全体を単体の装置として実装したものである。すなわち、ユーザーは、デジタルカメラ100を用いて被写体を撮像することで、画像表示部108において高解像度の画像を視認することができる。
図2に示すデジタルカメラ100は、本実施の形態に従う画像処理装置1の全体を単体の装置として実装したものである。すなわち、ユーザーは、デジタルカメラ100を用いて被写体を撮像することで、画像表示部108において高解像度の画像を視認することができる。
図3は、図1に示す画像処理装置1を具現化したパーソナルコンピューター200の構成を示すブロック図である。図3に示すパーソナルコンピューター200は、本実施の形態に従う画像処理装置1の一部を単体の装置として実装したものである。図3に示すパーソナルコンピューター200では、入力画像を取得するための撮像部2が搭載されておらず、任意の撮像部2によって取得された入力画像が外部から入力される構成となっている。このような構成であっても、本発明の実施の形態に従う画像処理装置1に含まれ得る。なお、図3においても、図1に示す画像処理装置1を構成するそれぞれのブロックに対応するコンポーネントには、図1と同一の参照符号を付している。
図3を参照して、パーソナルコンピューター200は、パーソナルコンピューター本体202と、モニター206と、マウス208と、キーボード210と、外部記憶装置212とを含む。
パーソナルコンピューター本体202は、典型的には、汎用的なアーキテクチャーに従う汎用コンピューターであり、基本的な構成要素として、CPU、RAM(Random Access Memory)、ROM(Read Only Memory)などを含む。パーソナルコンピューター本体202は、図1に示す画像処理部3が提供する機能を実現するための画像処理プログラム204が実行可能になっている。このような画像処理プログラム204は、CD−ROM(Compact Disk-Read Only Memory)などの記憶媒体に格納されて流通し、あるいは、ネットワークを介してサーバー装置から配信される。そして、画像処理プログラム204は、パーソナルコンピューター本体202のハードディスクなどの記憶領域内に格納される。
このような画像処理プログラム204は、パーソナルコンピューター本体202で実行されるオペレーティングシステム(OS)の一部として提供されるプログラムモジュールのうち必要なモジュールを、所定のタイミングおよび順序で呼出して処理を実現するように構成されてもよい。この場合、画像処理プログラム204自体には、OSが提供するモジュールは含まれず、OSと協働して画像処理が実現される。また、画像処理プログラム204は、単体のプログラムではなく、何らかのプログラムの一部に組込まれて提供されてもよい。このような場合にも、画像処理プログラム204自体には、当該何らかのプログラムにおいて共通に利用されるようなモジュールは含まれず、当該何らかのプログラムと協働して画像処理が実現される。このような一部のモジュールを含まない画像処理プログラム204であっても、本実施の形態に従う画像処理装置1の趣旨を逸脱するものではない。
もちろん、画像処理プログラム204によって提供される機能の一部または全部を専用のハードウェアによって実現してもよい。
モニター206は、オペレーティングシステム(OS)が提供するGUI画面、画像処理プログラム204によって生成される画像などを表示する。
マウス208およびキーボード210は、それぞれユーザー操作を受付け、その受付けたユーザー操作の内容をパーソナルコンピューター本体202へ出力する。
外部記憶装置212は、何らかの方法で取得された入力画像を格納しており、この入力画像をパーソナルコンピューター本体202へ出力する。外部記憶装置212としては、フラッシュメモリ、光学ディスク、磁気ディスクなどのデータを不揮発的に記憶するデバイスが用いられる。
図4は、カメラ22に含まれるレンズ22aの配置の具体例を表わした図である。図4の例では、一例として、カメラ22が、格子状に配置された16個のレンズ22a−1〜22a−16(レンズA〜P)を含むアレイカメラであるものとする。図4のレンズA〜Pの間隔(基線長)は、縦方向および横方向ともに均一であるものとする。なお、カメラ22で撮影したときの、カメラ22からの入力画像A〜Pは、それぞれ、レンズA〜Pからの入力画像であることを表わすものとする。
<動作概要>
(課題の説明)
レンズ22a等の部材は、環境条件によって変形することがある。特に、レンズ22aや、レンズ22aを保持する部材等がプラスチックなどの影響を受けやすい素材で形成されている場合、その変形率が大きい。そのため、入力画像がその変形の影響を受けることになり、その入力画像を用いる超解像処理が影響を受ける。なお、環境条件としては、たとえば温度や湿度などがあり、以下の説明では温度変化を例に挙げる。
(課題の説明)
レンズ22a等の部材は、環境条件によって変形することがある。特に、レンズ22aや、レンズ22aを保持する部材等がプラスチックなどの影響を受けやすい素材で形成されている場合、その変形率が大きい。そのため、入力画像がその変形の影響を受けることになり、その入力画像を用いる超解像処理が影響を受ける。なお、環境条件としては、たとえば温度や湿度などがあり、以下の説明では温度変化を例に挙げる。
図5〜図7は、レンズの温度変化の、超解像処理に対する影響を説明するための図である。詳しくは、図5を参照して、第1の影響として、レンズの温度変化によってレンズ22aと撮像素子(イメージセンサー)22bとの間の距離が変化し、それによって入力画像がぼけるという影響がある。たとえば、各レンズからの焦点が撮像素子22bのセンサー面上となるレンズ22aの位置を基準位置としたとき、レンズに対する30℃の温度変化によって焦点が基準位置から15〜20μm程度ずれるため、撮像素子22bでセンシングされる画像がぼける。なお、この場合、色によって焦点の基準位置からのずれ量が多少異なる場合がある。
また、図6を参照して、第2の影響として、レンズ22aを保持する部材の温度変化によってレンズピッチ(レンズの位置)が変わり、それによって入力画像における画素位置がずれるという影響がある。たとえば、レンズ22aを保持する部材に対して30℃の温度上昇があった場合、図6に表わされたように、外側に配置されたレンズほど大きい移動距離で、外側に移動するよう、レンズの位置が変化する。これにより、各入力画像における超解像処理に用いる画素位置が予め規定した位置からずれることになる。
また、図7を参照して、第3の影響として、撮像素子(イメージセンサー)22bの温度変化によってセンサー面が変形(反るなど)し、それによって、レンズ22aからの入力画像群のうちの一部の入力画像や、1枚の入力画像中の一部領域がぼけるという影響がある。たとえば、各レンズからの焦点が撮像素子22bのセンサー面上となるレンズ22aの位置を基準位置としたとき、撮像素子22bに30℃の温度変化があった場合、図7に表わされたように、センサー面が基準位置から反るように変形する。これにより、各入力画像におけるぼけ方(ぼけ度合い)が、入力画像群に軸対称に変化することになる。
レンズ22a等の部材の温度変化による変形の入力画像への影響は、図5に表わされた第1の影響が最も大きく、概ね、すべての入力画像に一律にぼけが含まれる。一方、図7に表わされた例ではレンズ位置ごとの変形量が異なるため入力画像ごとや、入力画像中の領域ごとにぼけ度合いが異なる。
(動作概要)
画像処理装置1では、アレイカメラであるカメラ22で撮影されることで得られる、それぞれ異なる視点の複数の入力画像について超解像処理を施し、高解像度画像を得る。このとき、画像処理装置1は、図5および図7に表わされたそれぞれの入力画像におけるぼけ度合いを考慮して超解像処理を行なう。
画像処理装置1では、アレイカメラであるカメラ22で撮影されることで得られる、それぞれ異なる視点の複数の入力画像について超解像処理を施し、高解像度画像を得る。このとき、画像処理装置1は、図5および図7に表わされたそれぞれの入力画像におけるぼけ度合いを考慮して超解像処理を行なう。
<動作フロー>
(全体動作)
図8は、本実施の形態にかかる画像処理装置1での動作の流れを表わすフローチャートである。図8を参照して、まず、画像処理装置1ではレンズ22aそれぞれで入力画像を取得する処理が実行されることで、16枚の入力画像が取得される。ここでは、たとえば1000×750画素程度の低解像度の画像が入力されるものとする。
(全体動作)
図8は、本実施の形態にかかる画像処理装置1での動作の流れを表わすフローチャートである。図8を参照して、まず、画像処理装置1ではレンズ22aそれぞれで入力画像を取得する処理が実行されることで、16枚の入力画像が取得される。ここでは、たとえば1000×750画素程度の低解像度の画像が入力されるものとする。
入力画像が取得されると、第1の位置ずれ推定処理として、位置ずれ概略推定処理が実行される(ステップS1)。ここでは、ピクセル単位(整数画素)でのずれ量が推定される。
次に、ピクセル単位でのずれ量に基づいて、第2の位置ずれ推定処理が実行される(ステップS2)。ここでは、サブピクセル単位(小数画素)でのずれ量が推定される。なお、ここでは、さらに、ぼけ度合いも推定される。
そして、位置ずれ量およびぼけ度合いを考慮して超解像処理が実行され(ステップS3)、3000×2250画素程度の高解像度画像が出力画像として生成される。
(位置ずれ概略推定)
図9および図10は、上記ステップS1での、第1の位置ずれ推定処理としての位置ずれ概略推定処理を説明するための図である。図9は、一例として、カメラ22の正面にりんごを配して撮影したときの各レンズ22aからの入力画像A〜Pを表わしている。ここでは、入力画像Fを基準画像として、レンズFに対する各レンズの位置関係に基づく各入力画像中の視差による位置ずれが表わされている。すなわち、図9中の点線りんごは、入力画像F中のりんごに対応した位置を表わし、実線で示したりんごは、各入力画像中の実際のりんごの位置を表わしている。
図9および図10は、上記ステップS1での、第1の位置ずれ推定処理としての位置ずれ概略推定処理を説明するための図である。図9は、一例として、カメラ22の正面にりんごを配して撮影したときの各レンズ22aからの入力画像A〜Pを表わしている。ここでは、入力画像Fを基準画像として、レンズFに対する各レンズの位置関係に基づく各入力画像中の視差による位置ずれが表わされている。すなわち、図9中の点線りんごは、入力画像F中のりんごに対応した位置を表わし、実線で示したりんごは、各入力画像中の実際のりんごの位置を表わしている。
このとき、上記ステップS1では、図10を参照して、基準画像である入力画像F上の丸で表わした画素(基準画素)の位置ずれを推定するものとすると、他の入力画像において視差による位置ずれがない場合の対応する画素位置が特定される(点線丸)。そして、その位置に基づく規定範囲(点線矩形)に対して、入力画像Fの基準画素を含む画像を用いてテンプレートマッチング処理が施されて、最も一致度が高い画素位置が対応する画素位置として特定される。ここでのテンプレートマッチング処理の一例として、NCC(Normalized Cross Correlation)が挙げられる。他の例として、SAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)などであってもよい。上記ステップS1では、上記の処理が、入力画像Fの各画素について行なわれることで、各入力画像について、超解像処理に用いる画素が検出される。
上の例では視差によって位置ずれが生じているものとしているが、たとえば、図6で表わされたように、温度変化等の環境条件によってレンズ22a等の部材が変形したことによる、レンズ22aの位置の変化に基づく位置ずれであっても同様である。
なお、上記基準画像としては、好ましくは、入力画像A〜Pのうちの最もぼけ度合いの小さい画像が用いられる。最もぼけ度合いの小さい画像は、一例として、入力画像A〜Pそれぞれにラプラシアンフィルター等の微分系フィルターをかけるなどしてそれぞれの高周波成分を抽出し、最も高周波成分の多い入力画像を決定することで特定される。その他の方法で特定されてもよい。
(位置ずれ推定)
図11〜図18は、上記ステップS2での、第2の位置ずれ推定処理としての位置ずれ推定処理を説明するための図であって、図11〜図13は、通常の位置ずれ推定処理を表わし、図14〜図18が、上記ステップS2で実行される、ぼけ度合いもさらに行なう場合の位置ずれ推定処理を表わしている。
図11〜図18は、上記ステップS2での、第2の位置ずれ推定処理としての位置ずれ推定処理を説明するための図であって、図11〜図13は、通常の位置ずれ推定処理を表わし、図14〜図18が、上記ステップS2で実行される、ぼけ度合いもさらに行なう場合の位置ずれ推定処理を表わしている。
まずは、図11〜図13を参照して、通常の位置ずれ処理では、入力画像Fを基準画像としたときの、入力画像Pについての処理を例に説明すると、参照画像である入力画像Pについて、視差や温度変化がない場合には基準画像とする入力画像Fの基準画素Sに対応する画素S’が用いられるが、視差等のある場合には、図11に示されるように、上記ステップS1で特定された視差等によるずれ量を考慮した画素Tが用いられる。すなわち、参照画像である入力画像Pについて、画素Tを中心に、たとえば17×17画素でテンプレートマッチング処理が行なわれ、画素Tに対する一致度(たとえばNCC値)が算出される。また、画素Tのたとえば近傍8画素でも、同様の処理がなされて、近傍8画素分の一致度が算出される。そして、それら一致度を元に2次曲面フィッティングが行なわれ、サブピクセル単位での位置ずれが推定される。ステップS2の通常の位置ずれ推定では、一例として、図13に表わされた、論文「位置ずれ量を考慮した画素選択に基づくロバスト超解像処理」(電子情報通信学会論文誌、Vol.J92−D、No.5、pp.650−660、2009、2009年5月)に記載された手法を採用することができる。すなわち、図12および図13に表わされたように、画素ごとの一致度のうち、最も一致度の高い画素の座標がずれ量として特定される。
なお、ステップS2では、上記の2次曲面フィッティングに替えて、X座標およびY座標それぞれで2次曲面フィッティングするなどの他の手法が採用されてもよい。
本実施の形態にかかる画像処理装置1では、上記ステップS2で、さらに、ぼけ度合いも推定される。すなわち、図14を参照して、上記ステップS2では、基準画像として、入力画像F中の基準画素Sを含む範囲の画像の他に、その画像にぼけ度合いに応じたぼけを付加した画像が生成され、それぞれがテンプレートマッチング処理に用いられる。そして、これらぼけ度合いの異なる複数の基準画像を用いたテンプレートマッチング処理の結果、最も一致度(NCC度)の高い基準画像と参照画像中の位置とで、サブピクセル単位での位置ずれが推定されると共に、ぼけ度合いも推定される。
図14の例では、「ぼけ度」0として入力画像F中の画像の他、「ぼけ度」1として入力画像F中の画像にぼけを付加した画像と、「ぼけ度」2としてぼけを付加した画像とが、それぞれ基準画像として生成され、用いられる。これら基準画像を用いた、画素Tに基づく規定範囲(点線矩形)での各テンプレートマッチング処理の結果、画素ごとの一致度(たとえばNCC値)が最も高い画素の座標がずれ量として特定されると共に、そのときの基準画像の示すぼけ度合いが、入力画像Pのその位置での、基準画像とされた入力画像に対するぼけ度合いと推定される。
これは、参照画像が基準画像よりもぼけている場合には、ぼかした基準画像(図14の例では、「ぼけ度」2の基準画像)の方が参照画像と似てくるため、ぼけ度合いが推定できることになるためである。すなわち、ぼけ度合いが似た画像間で上記の位置ずれ推定処理を行なう方が画像同士の類似性が高くなるため、画素の推定精度が高くなるためである。
なお、ぼけを付加した画像の生成方法の一例として、入力画像Fに対して平滑化フィルターを適用する方法が挙げられる。平滑化フィルターとしては、たとえば、ガウシアンフィルターや平均化フィルターなどが挙げられる。以下の説明では、ガウシアンフィルターを用いる場合を例に挙げる。ガウシアンフィルターとは、以下の式(1)に座標値(x,y)とぼけ度合いを表わす定数σとを代入することで得られる:
f(x,y)=exp{−(x2+y2)/2/σ2}/2π/σ2 …式(1)。
f(x,y)=exp{−(x2+y2)/2/σ2}/2π/σ2 …式(1)。
すなわち、図15を参照して、「ぼけ度」1の基準画像を生成するためには、定数σをσ=0.4としてガウシアンフィルターの係数が算出される。このとき、フィルターの係数の合計が1になるように正規化される。この係数のフィルターが「ぼけ度」0の基準画像である入力画像Fに適応されることにより、ぼけ度合いの異なる(「ぼけ度」1の)基準画像が生成される。さらに、よりぼけ方の進んだ「ぼけ度」2の基準画像を生成するためには、図15に示された方法と同様に、定数σをσ=0.6としてガウシアンフィルターの係数が算出される。
なお、図15ではフィルターのサイズが3×3画素である例が示されているが、定数σの選び方によってサイズが異なってもよい。フィルター係数が0に近い(たとえば、0.01以下)と、フィルター処理にほとんど影響しなくなるので、実際のフィルター係数からフィルターサイズを決定するものとする。
「ぼけ度」0の基準画像と、「ぼけ度」1の基準画像と、「ぼけ度」2の基準画像とのそれぞれを用いてパターンマッチング処理を行なった場合の、参照画像の画素Tに基づく規定範囲(画素Tの周辺8画素を含む9画素分の領域)の各画素についての一致度であるNCC値が、それぞれ、図16〜図18のように得られたものとする。この場合、「ぼけ度」2の基準画像を用いたときの中央の画素のNCC値がこれらの中で最も高い値であるため、この画素に基づいて位置ずれ量が推定されると共に、「ぼけ度」2がこの参照画像のぼけ度合いであると推定される。
(超解像処理)
図19は、上記ステップS3の超解像処理に先だって行なわれる、パラメーター算出のための処理を表わすフローチャートである。図19を参照して、画像処理装置1では、上記ステップS3の超解像処理において、上記ステップS2で推定されたぼけ度合いが考慮される。そのため、上記ステップS2で推定されたぼけ度合いから超解像処理に用いるパラメーターが算出される。超解像処理では、超解像後の画素ピッチに応じたパラメーターが必要となる。そのため、上記ステップS2の位置ずれ推定処理に用いられた、入力画像の画素ピッチに応じた平滑化フィルター(ガウシアンフィルター)の係数が、入力画像と出力画像との画素ピッチに応じて換算される。
図19は、上記ステップS3の超解像処理に先だって行なわれる、パラメーター算出のための処理を表わすフローチャートである。図19を参照して、画像処理装置1では、上記ステップS3の超解像処理において、上記ステップS2で推定されたぼけ度合いが考慮される。そのため、上記ステップS2で推定されたぼけ度合いから超解像処理に用いるパラメーターが算出される。超解像処理では、超解像後の画素ピッチに応じたパラメーターが必要となる。そのため、上記ステップS2の位置ずれ推定処理に用いられた、入力画像の画素ピッチに応じた平滑化フィルター(ガウシアンフィルター)の係数が、入力画像と出力画像との画素ピッチに応じて換算される。
具体例として、上述のように、ぼけを付加するためにガウシアンフィルターが用いられる場合、超解像処理に用いられるパラメーターとしてPSF(Point Spread Function)を用いる。すなわち、図19を参照して、はじめに、入力画像ごとに、上記ステップS2の位置ずれ推定処理で最もNCC値の高かった基準画像のぼけの付加に用いられたガウシアンフィルターの係数が、超解像処理後の画像の画素ピッチに換算され(ステップ#11)、PSFが算出される(ステップ#12)。
図20は、上記ステップ#11でのガウシアンフィルターの係数の換算方法を説明するための図である。図21は、上記ステップ#12でのPSFの算出方法を説明するための図である。
図20では超解像処理で縦横3倍の画素数にするとした場合のガウシアンフィルターの係数の換算方法が表わされている。超解像処理で縦横3倍の画素数にすることは、入力画像を1/3画素ピッチで細かくすることに相当する。そのため、ぼけを付加するために用いられたガウシアンフィルター(たとえば図15)の1/3画素間隔で係数を算出する必要がある。
このとき、ぼけ度合いを表わす定数σは同じ値を用いる。つまり、σ=0.4の場合には、図20に表わされたように、1/3画素間隔とされた座標値(x,y)と「ぼけ度」1を表わす定数σ=0.4とを上記式(1)に代入することで係数が算出される。なお、ここでは座標値(x,y)の最大値を1としているが、定数σが大きくなると1.33や1.67などの1以上の座標値でのフィルター係数が無視できない数値となる。そのため、その場合には、図20に示された例より大きなフィルターサイズで係数を算出する。
次に、図21を参照して、レンズの設計値などに基づいて「ぼけ度」0の超解像画像の画素ピッチで定義されたPSFを図21の上図のように定義されたとする。そして、この係数を画素と同様に扱って図20の換算されたガウシアンフィルターを適用することにより、「ぼけ度」1に対応するパラメーターであるPSFが算出される。なお、この場合も、フィルター係数の合計が1になるように、正規化する。入力画像ごと、またはその部分領域ごとにこのようにして算出されたパラメーターを用いて、上記ステップS3で超解像処理が実行される。
図22は、上記ステップS3での超解像処理の流れを表わした図である。図22では、具体例として、論文「Fast and Robust Multiframe Super Resolution」(IEEE TRANSACTIONS ON IMAGE PROCESSING, VOL. 13, NO. 10, OCTOBER 2004 page.1327−1344)に記載された処理を行なう場合の超解像処理の流れが示されている。
図22を参照して、ステップ#31で、16枚の入力画像のうちの1枚に対してバイリニア法等の補間処理を施して入力画像の解像度を超解像処理後の解像度である高解像度に変換することで、初期画像としての出力候補画像が生成される。
ステップ#32で、ノイズにロバストに収束させるための拘束項としてのBTV(Bilateral Total Variation)量が算出される。
ステップ#33で、上記生成された出力候補画像と16枚分の入力画像とが比較されて、残差が算出される。ステップ#34で、上記ステップ#31で生成された出力候補画像から算出された残差とBTV量とが減ぜられて次の出力候補画像が生成される。
上記ステップ#31〜#34の処理が、出力候補画像が収束するまで繰り返され、収束した出力候補画像が超解像処理後の出力画像として出力される。
繰り返しは、おおよそ充分に収束する回数(たとえば200回)などの、予め規定された回数であってもよいし、一連の処理の都度、収束判定がなされ、その結果に応じて繰り返されてもよい。
図23は、上記ステップ#33で用いられる劣化情報を説明するための図である。また、図24〜図28は、上記ステップ#33での処理を説明するための図である。
劣化情報とは、超解像処理後の高解像度画像に対する入力画像それぞれの関係を表わす情報を指し、たとえば行列形式で表わされる。劣化情報には、入力画像それぞれのサブピクセルレベルでのずれ量F(平行移動した残りの少数画素分)、ダウンサンプリング量D(上記の例では縦横それぞれ1/3)、およびぼけ量H(PSF)などが含まれる。
図23を参照して、劣化情報は、入力画像および超解像処理後の高解像度画像それぞれを1次元のベクトル表現した場合に、その変換を示す行列で規定される。
上記ステップ#33では、まず、図24を参照して、入力画像Ykから生成された出力候補画像Xnにその入力画像Ykについての劣化情報DkHkFkを当てはめることで、入力サイズの画像DkHkFkXnが生成される(ステップ#41)。ここでの処理は、詳しくは、図25を参照して、まず、出力候補画像Xnに対して、ぼけ量Hkを表わすパラメーターであるPSFを係数とした行列を用いたフィルター処理が施される(ステップS11)。
そして、次に、ずれを考慮してダウンサンプリングされる(ステップS12)。これにより、入力サイズの画像DkHkFkXnが出力される。一例として、図25の右に表わされたように、ずれ量FがX方向に1/3画素のずれであり、ダウンサンプリング量Dが縦横1/3である場合には、フィルター処理された後の出力候補画像Xnの1/3画素分ずらした位置にある9画素分の矩形領域の各画素の平均値が、入力サイズの画像DkHkFkXnの1/3画素分ずらす前の位置にある1画素分の画素値として出力される(ステップS13)。
次に、図26を参照して、入力サイズの画像とされた出力候補画像DkHkFkXnは入力画像Ykと比較され、その差異の画像sign(DkHkFkXn−Yk)が記録される(ステップ#42)。図26の例では、一例として、出力候補画像DkHkFkXnと入力画像Ykとの差異に符号関数signが適用される例が示されている。
次に、超解像処理の収束演算に用いられるように、上記の差異が超解像画像のどの画素の影響によるものであるのか、算出された差異に表わされる影響を超解像画像上の対応する画素に戻すために、上記差異の画像sign(DkHkFkXn−Yk)を超解像後の画像サイズに戻す処理が行なわれる(ステップ#43)。上記のように、劣化情報Dk,Hk,Fkを行列で定義した場合、ステップ#43ではその転置行列が用いられる。すなわち、図27を参照して、記録された差異の画像sign(DkHkFkXn−Yk)にその入力画像Ykについての劣化情報DkHkFkの転置行列DkTHkTFkTを当てはめることで、超解像後の画像サイズに戻される。ここでの処理は、詳しくは、図28を参照して、上記のようにして差異の画像sign(DkHkFkXn−Yk)が生成されると(ステップS14)、ずれを考慮してアップサンプリングされる(ステップS15)。一例として、図28の右に表わされたように、ずれ量FがX方向に1/3画素のずれであり、ダウンサンプリング量Dが縦横1/3である場合には、差異の画像sign(DkHkFkXn−Yk)の所定位置にある1画素分の画素値(差異の値)が均等分(この例では9等分)され、1/3画素分ずらした位置にある9画素分の矩形領域の各画素に出力される。この処理の後、ぼけ量Hkを表わすパラメーターであるPSFを係数としたフィルターの転置行列が当てはめられてぼけ量Hkを戻す処理が施され(ステップS16)、処理後の画像が超解像後の画像サイズに戻された差異の画像DkTHkTFkTsign(DkHkFkXn−Yk)が出力される(ステップS17)。以上の処理によって、1つの入力画像Ykに対する差異の画像DkTHkTFkTsign(DkHkFkXn−Yk)が作成される。
図29は、上記ステップ#33の残差算出処理の一例を表わしたフローチャートである。入力画像はこの例では16枚あるため、上記ステップ#33の残差算出処理では図29のように枚数分、上記ステップS11〜S17の処理を繰り返す。すなわち、図29を参照して、1枚目の入力画像Y1について上記の処理がステップS11〜S17として行なわれて超解像後の画像サイズの差異の画像が出力され、2枚目の入力画像Y2について上記の処理がステップS21〜S27として行なわれて超解像後の画像サイズの差異の画像が出力され、…(中略)、16枚目の入力画像Y16について上記の処理がステップS161〜S167として行なわれて超解像後の画像サイズの差異の画像が出力される。
そして、その合計値が残差として出力される(ステップS100)。なお、上の例では、ずれ量Fとぼけ量Hとの処理順が論文での説明とは逆になっているが、ぼけは画像のある程度おおきな範囲で生じているため、順序を入れ替えても実質的な影響はない。
なお、上記のぼけ量Hの行列の処理は、以下のフィルター処理と等価となる。すなわち、ぼけ量Hの処理については、入力画素値I、出力画素値I’を用いて、
I’(x,y)=ΣΣPSF(i,j)I(x+i,y+j)
と表わされる。なお、Σは、PSFのフィルターサイズ分(たとえば7×7のフィルターなら、i,jそれぞれ−3〜3)となる。
I’(x,y)=ΣΣPSF(i,j)I(x+i,y+j)
と表わされる。なお、Σは、PSFのフィルターサイズ分(たとえば7×7のフィルターなら、i,jそれぞれ−3〜3)となる。
また、ぼけ量Hの転置行列の処理については、
I’(x+i,y+j)=ΣΣPSF(i,j)I(x,y)
と表わされる。つまり、出力画素値I’は、入力画素値Iを全画素処理した合計値となる。
I’(x+i,y+j)=ΣΣPSF(i,j)I(x,y)
と表わされる。つまり、出力画素値I’は、入力画素値Iを全画素処理した合計値となる。
図31は、上記ステップ#33の残差算出処理の他の例を表わしたフローチャートである。ステップ#33の残差算出処理では、ぼけ量Hを用いる処理において対象とする画素の周辺の画素にもアクセスするフィルター処理が実行されるため、処理に時間がかかる。そこで、ぼけ量が予め固定されている場合(上記の例では「ぼけ度」0,1,2)、好ましくは、ぼけ度合いごとにぼけ量Hを用いる処理がまとめて実行される。これにより、処理の高速化を図ることができる。
たとえば、各入力画像Tkについて図30に表わされたようにぼけ度合いが推定されたものとする。すなわち、入力画像Y1,Y3,Y7,Y10,Y15については「ぼけ度」0、入力画像Y2,Y9,Y11,Y13,Y16については「ぼけ度」1、および入力画像Y4,Y5,Y6,Y8,Y12,Y14については「ぼけ度」2と推定されたものとする。この場合、図31を参照して、入力画像Y1,Y3,Y7,Y10,Y15については、それぞれの画像についての上記ステップS11での「ぼけ度」0を表わすパラメーターであるPSFを係数とした行列Haを用いた処理がまとめて行なわれる(ステップS11’)。同様に、入力画像Y2,Y9,Y11,Y13,Y16についての「ぼけ度」1を表わす行列Hbを用いた処理(ステップS21’)、および入力画像Y4,Y5,Y6,Y8,Y12,Y14についての「ぼけ度」2を表わす行列Hcを用いた処理(ステップS31’)も、それぞれまとめて行なわれる。そして、ぼけ具合ごとに、差異の画像の合計が算出され(ステップS15’−1等)、超解像後の画像サイズに戻す処理もぼけ具合ごとの差異の画像について行なわれる(ステップS16’,S16’−1,S26’,S26’−1,S36’,S36’−1)。
図32は、上記ステップ#33の残差算出処理の他の例を表わしたフローチャートである。上記ステップS2の位置ずれ推定処理の際に算出された一致度であるNCC値が低い場合には、基準画素とは異なる(間違えた)画素位置が検出されていたり、その位置のぼけが大きかったりしているため、上記ステップ#33の残差算出処理に用いないようにしてもよい。すなわち、入力画像のうち、上記ステップS2の位置ずれ推定処理の際のテンプレートマッチング処理での基準画像への一致度合いが規定以上の入力画像のみ超解像処理に用いるようにしてよい。これにより、その入力画像やその部分についての残差算出処理以降の処理が省略されるため、処理の高速化を図ることができる。また、その入力画像やその部分を超解像処理に用いないようにすることができるため、出力画像の画質を向上させることができる。
たとえば、16枚の入力画像Y1〜Y12のうち、入力画像Y2の一部領域のNCC値が予め規定されたしきい値(たとえば0.7)以下であったものとする。図32を参照して、この場合、上記ステップ#33の残差算出処理では、上記しきい値を満たす他の入力画像Y1,Y3〜Y12のみを用いて上記の処理(ステップS11〜S17,ステップS31〜S37,…S161〜S167)が行なわれ、上記しきい値以下である入力画像Y2については、上記ステップS21〜S27の処理が行なわれずに、差異がないと出力される(ステップS27’’)。この場合、入力画像Y2以外の画像Y1,Y3〜Y12のそれぞれから得られた際の画像から残差が算出される(ステップS102)。または、この場合、入力画像Y2のうちの上記しきい値を満たす上記一部領域以外の他の領域(画素部分)も用いられてもよい。
なお、上記ステップS3での超解像処理は、図22に表わされた処理に限定されるものではなく、複数枚の入力画像から1枚の画像を生成する再構成型超解像処理であれば他の処理が採用されてもよい。図33は、上記ステップS3での超解像処理の他の例を表わした図である。すなわち、図33を参照して、上記ステップ#32で算出される拘束項はBTV量に替えて、たとえば、4近傍ラプラシアンなどの他のものが用いられてもよい(ステップ#32’)。
また、ステップ#33の残差算出処理も異なる算出方法であってよい。一例として、符号関数signを用いず、出力候補画像DkHkFkXnと入力画像Ykとの差異が直接用いられてもよい。
<他の例>
図34は、画像処理装置1での動作の他の例を表わすフローチャートである。また、図35〜図38は、画像処理装置1での動作の他の例を説明するための図である。
図34は、画像処理装置1での動作の他の例を表わすフローチャートである。また、図35〜図38は、画像処理装置1での動作の他の例を説明するための図である。
図34を参照して、はじめに、上記のステップS1と同様にして位置ずれ概略推定処理が実行される。すなわち、「ぼけ度」0の基準画像と参照画像とのテンプレートマッチング処理が実行される。これにより、図35に表わされたように、基準画像上の基準画素Sに対応する参照画像上の画素Tが検出され、基準画像上の基準画素Sの位置に対応した参照画像上の画素S’からの位置ずれが概略推定される。
次に、ぼけ度合いを推定する処理が実行される(ステップS1−1)。ここでは、上記ステップS2と同様に、「ぼけ度」0として入力画像中の画像の他、「ぼけ度」1として入力画像中の画像にぼけを付加した画像と、「ぼけ度」2としてぼけを付加した画像とが、それぞれ基準画像として生成される。それぞれの基準画像が用いられて、図36に表わされたように、上記ステップS1の位置ずれ概略推定処理で検出された画素T周辺のNCC値が算出される。そして、図37に表わされたように、その最大のピーク値の画素位置T’が特定される。図37の例の場合、「ぼけ度」2の基準画像を用いたときに最大のピーク値が算出されているため、この入力画像のぼけ度合いが「ぼけ度」2と推定される。また、位置ずれ概略位置としては、画素Tではなく画像T’と修正される。
このように、他の例として、上記ステップS1の位置ずれ概略推定処理の後に、上記ステップS1−1が実行されて推定された画素付近でぼけ度合いが最も一致する画素が探索される。これにより、入力画像のぼけ度合いが基準画像に対して大きい場合にも、位置ずれ概略推定処理で画素位置が誤って検出されることを防止することができる。
次に、図38に示されたように、画像T’の周辺所定範囲(たとえば9画素(3×3画素))でテンプレートマッチングにおける画素ごとの一致度(たとえばNCC値)を元に2次曲面フィッティングが行なわれ、サブピクセル単位での位置ずれが推定される(ステップS2)。そして、位置ずれ量およびぼけ度合いを考慮して超解像処理が実行される(ステップS3)。
<実施の形態の効果>
本実施の形態にかかる画像処理装置1は上記処理を実行することで、入力画像ごとの、入力画像群のうちの1枚の基準画像に対するぼけ度合いに応じて、入力画像群に対して超解像処理を行なうことができる。これにより、超解像処理後の高解像度画像のそれぞれの入力画像のぼけ度合いの異なりによる画質の劣化を抑えることができる。
本実施の形態にかかる画像処理装置1は上記処理を実行することで、入力画像ごとの、入力画像群のうちの1枚の基準画像に対するぼけ度合いに応じて、入力画像群に対して超解像処理を行なうことができる。これにより、超解像処理後の高解像度画像のそれぞれの入力画像のぼけ度合いの異なりによる画質の劣化を抑えることができる。
また、画像処理装置1は、入力画像ごとに、ぼけ度合いを同じくした基準画像を用いてサブピクセル単位での位置ずれ推定処理を行なうため、位置ずれ推定の精度を向上させることができる。これにより、超解像処理後の高解像度画像の画質を向上させることができる。
さらに、画像処理装置1は、上記のように超解像処理における誤差算出時に、入力画像ごとの推定されたぼけ度合いに応じてまとめて処理を行なうため、処理を高速化することができる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 画像処理装置、2 撮像部、3 画像処理部、4 画像出力部、22 カメラ、22a レンズ、22b 撮像素子、24 変換部、32 位置ずれ推定部、36 超解像処理部、100 デジタルカメラ、104 デジタル処理回路、106 画像処理回路、108 画像表示部、112 記憶部、114 カメラ部、200 パーソナルコンピューター、202 パーソナルコンピューター本体、204 画像処理プログラム、206 モニター、208 マウス、210 キーボード、212 外部記憶装置、321 第1推定部、322 第2推定部、323 ぼけ度合い推定部、361 算出部。
Claims (10)
- それぞれが共通する部分領域を有する入力画像群から、前記入力画像よりも高い周波数情報を持つ高解像度画像を作成して出力する画像処理装置であって、
前記入力画像群のうちの1つの入力画像を基準画像とし、前記基準画像以外の入力画像を参照画像としてテンプレートマッチング処理を行なうことで、前記参照画像のぼけ度合いを推定するための推定手段と、
前記参照画像について、推定された前記ぼけ度合いをパラメーターとして用いて超解像処理を実行するための処理手段とを備え、
前記推定手段は、前記基準画像に対してぼけ度合いに応じたぼけを付加して前記テンプレートマッチング処理に用いる、画像処理装置。 - 前記処理手段は、前記入力画像について推定された前記ぼけ度合いから、前記超解像処理に用いる前記パラメーターを算出するための算出手段を含む、請求項1に記載の画像処理装置。
- 前記推定手段は、前記基準画像に対して平滑化フィルターを適用することでぼけを付加した画像を生成する、請求項1または2に記載の画像処理装置。
- 前記推定手段は、前記入力画像群の中でぼけ度合いの最も小さい入力画像を前記基準画像として用いる、請求項1〜3のいずれかに記載の画像処理装置。
- 前記処理手段は、推定された前記ぼけ度合いが同じ入力画像ごとに、前記超解像処理に含まれる、前記入力画像に対して補間処理を施して前記入力画像の解像度を変換することで作成される出力候補画像と前記入力画像群の入力画像それぞれとを比較することで残差を算出する処理を実行する、請求項1〜4のいずれかに記載の画像処理装置。
- 前記処理手段は、前記入力画像群のうちの、前記テンプレートマッチング処理での前記基準画像への一致度合いが規定度合い以上である領域を用いて前記超解像処理を実行する、請求項1〜5のいずれかに記載の画像処理装置。
- 前記推定手段は、前記テンプレートマッチング処理を行なうことで、前記算出画像における前記基準画像に相当する位置をさらに推定する、請求項1〜6のいずれかに記載の画像処理装置。
- 前記入力画像群は、互いに光軸が異なる複数レンズを含んだレンズアレイで得られる画像群である、請求項1〜7のいずれかに記載の画像処理装置。
- それぞれが共通する部分領域を有する入力画像群から、前記入力画像よりも高い周波数情報を持つ高解像度画像を出力画像として生成する方法であって、
前記入力画像群のうちの1つの入力画像を基準画像とし、前記基準画像以外の入力画像を参照画像としてテンプレートマッチング処理を行なうことで、前記参照画像のぼけ度合いを推定するステップと、
前記参照画像について、推定された前記ぼけ度合いをパラメーターとして用いて超解像処理を実行するステップとを備え、
前記参照画像のぼけ度合いを推定するステップは、前記基準画像に対してぼけ度合いに応じたぼけを付加して前記テンプレートマッチング処理に用いる画像を生成するステップを含む、画像処理方法。 - コンピューターに、それぞれが共通する部分領域を有する入力画像群から、前記入力画像よりも高い周波数情報を持つ高解像度画像を出力画像として生成する処理を実行させるプログラムであって、
前記入力画像群のうちの1つの入力画像を基準画像とし、前記基準画像以外の入力画像を参照画像としてテンプレートマッチング処理を行なうことで、前記参照画像のぼけ度合いを推定するステップと、
前記参照画像について、推定された前記ぼけ度合いをパラメーターとして用いて超解像処理を実行するステップとを前記コンピューターに実行させ、
前記参照画像のぼけ度合いを推定するステップは、前記基準画像に対してぼけ度合いに応じたぼけを付加して前記テンプレートマッチング処理に用いる画像を生成するステップを含む、画像処理プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013035813A JP2014164574A (ja) | 2013-02-26 | 2013-02-26 | 画像処理装置、画像処理方法および画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013035813A JP2014164574A (ja) | 2013-02-26 | 2013-02-26 | 画像処理装置、画像処理方法および画像処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014164574A true JP2014164574A (ja) | 2014-09-08 |
Family
ID=51615112
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013035813A Withdrawn JP2014164574A (ja) | 2013-02-26 | 2013-02-26 | 画像処理装置、画像処理方法および画像処理プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014164574A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102804A (ja) * | 2015-12-04 | 2017-06-08 | セイコーエプソン株式会社 | 画像処理方法、及び、画像処理プログラム |
WO2018225133A1 (ja) | 2017-06-05 | 2018-12-13 | 楽天株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
US10303301B2 (en) | 2016-02-26 | 2019-05-28 | Japan Display Inc. | Touch detecting apparatus and touch detection method |
WO2021141359A1 (en) * | 2020-01-06 | 2021-07-15 | Samsung Electronics Co., Ltd. | Image display apparatus and image displaying method |
JP7212207B1 (ja) * | 2021-07-28 | 2023-01-24 | 楽天グループ株式会社 | 画像処理システム、画像処理方法、及びプログラム |
-
2013
- 2013-02-26 JP JP2013035813A patent/JP2014164574A/ja not_active Withdrawn
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017102804A (ja) * | 2015-12-04 | 2017-06-08 | セイコーエプソン株式会社 | 画像処理方法、及び、画像処理プログラム |
US10303301B2 (en) | 2016-02-26 | 2019-05-28 | Japan Display Inc. | Touch detecting apparatus and touch detection method |
US10466843B2 (en) | 2016-02-26 | 2019-11-05 | Japan Display Inc. | Touch detecting apparatus and touch detection method |
WO2018225133A1 (ja) | 2017-06-05 | 2018-12-13 | 楽天株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
US11055816B2 (en) | 2017-06-05 | 2021-07-06 | Rakuten, Inc. | Image processing device, image processing method, and image processing program |
WO2021141359A1 (en) * | 2020-01-06 | 2021-07-15 | Samsung Electronics Co., Ltd. | Image display apparatus and image displaying method |
US11735144B2 (en) | 2020-01-06 | 2023-08-22 | Samsung Electronics Co., Ltd. | Image display apparatus and image displaying method |
JP7212207B1 (ja) * | 2021-07-28 | 2023-01-24 | 楽天グループ株式会社 | 画像処理システム、画像処理方法、及びプログラム |
WO2023007631A1 (ja) * | 2021-07-28 | 2023-02-02 | 楽天グループ株式会社 | 画像処理システム、画像処理方法、及びプログラム |
EP4156095A4 (en) * | 2021-07-28 | 2024-01-03 | Rakuten Group Inc | IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD AND PROGRAM |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jeon et al. | Accurate depth map estimation from a lenslet light field camera | |
US8204330B2 (en) | Adaptive PSF estimation technique using a sharp preview and a blurred image | |
JP4585456B2 (ja) | ボケ変換装置 | |
WO2014132754A1 (ja) | 画像処理装置および画像処理方法 | |
JP5535053B2 (ja) | 画像処理装置、及び画像処理方法 | |
US20090244299A1 (en) | Image processing device, computer-readable storage medium, and electronic apparatus | |
JP5978949B2 (ja) | 画像合成装置及び画像合成用コンピュータプログラム | |
US9245316B2 (en) | Image processing device, image processing method and non-transitory computer readable medium | |
JP2014164574A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US11445109B2 (en) | Image processing device, image capturing device, image processing method, and storage medium | |
JP2015148532A (ja) | 距離計測装置、撮像装置、距離計測方法、およびプログラム | |
JP2010218271A (ja) | パラメータ制御処理装置及び画像処理装置 | |
WO2009096520A1 (ja) | 対応点探索装置および対応点探索方法 | |
JP5751254B2 (ja) | 画像処理システム、画像処理方法および画像処理プログラム | |
JP7027776B2 (ja) | 移動ベクトル算出方法、装置、プログラム、及びノイズ除去処理を含む移動ベクトル算出方法 | |
JP2008243037A (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
US10122939B2 (en) | Image processing device for processing image data and map data with regard to depth distribution of a subject, image processing system, imaging apparatus, image processing method, and recording medium | |
WO2014077024A1 (ja) | 画像処理装置、画像処理方法および画像処理プログラム | |
JP6532328B2 (ja) | 画像処理装置、その制御方法、および制御プログラム | |
JP5587322B2 (ja) | 画像処理装置、画像処理方法、及び画像処理プログラム | |
US9270883B2 (en) | Image processing apparatus, image pickup apparatus, image pickup system, image processing method, and non-transitory computer-readable storage medium | |
JP6235860B2 (ja) | 情報処理装置及びその制御方法、プログラム | |
WO2014192642A1 (ja) | 画像処理装置および画像処理方法 | |
CN110599504B (zh) | 一种图像处理方法及装置 | |
JP2009069902A (ja) | 画像処理方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160121 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20161003 |