JPWO2009019824A1 - 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム - Google Patents

撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム

Info

Publication number
JPWO2009019824A1
JPWO2009019824A1 JP2009502747A JP2009502747A JPWO2009019824A1 JP WO2009019824 A1 JPWO2009019824 A1 JP WO2009019824A1 JP 2009502747 A JP2009502747 A JP 2009502747A JP 2009502747 A JP2009502747 A JP 2009502747A JP WO2009019824 A1 JPWO2009019824 A1 JP WO2009019824A1
Authority
JP
Japan
Prior art keywords
component
moving image
resolution
color component
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009502747A
Other languages
English (en)
Other versions
JP4317587B2 (ja
Inventor
吾妻 健夫
健夫 吾妻
登 一生
一生 登
本村 秀人
秀人 本村
良文 廣瀬
良文 廣瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP4317587B2 publication Critical patent/JP4317587B2/ja
Publication of JPWO2009019824A1 publication Critical patent/JPWO2009019824A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

各カメラへ入射する光量の低下をなくし、高解像度で、かつ、高フレームレートの動画像を生成可能な画像処理装置および方法を提供する。撮像処理装置は、可視光を、少なくとも第1および第2色成分に分離する分離部と、第1色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、動画像の各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、第2色成分の動画像を撮影する第2撮像部であって、第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、動画像の各画像を第1空間解像度よりも高い第2空間解像度で、かつ、第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、第1および第2の撮像部における撮像条件を制御する制御部と、第1色成分および第2色成分の各動画像の情報に基づいて、時空間解像度を高めた第2成分の動画像を生成する処理部とを備えている。

Description

本発明は、動画像の画像処理に関する。より具体的には、撮影された動画像の解像度およびフレームレートの少なくとも一方を画像処理によって高くした動画像を生成する技術に関する。
近年映像入力の分野では、携帯電話用カメラやデジタルスチルカメラの多画素化、画素ピッチの小型化が進んでいる。
空間解像度は、画像撮像機器に必要とされる画質に応じて多岐にわたって使い分けられている。たとえばTV電話の解像度はQCIF(Quarter Common Intermediate Format、横176画素、縦144画素)程度、または、QVGA(Quarter Video Graphics Array、横320画素、縦144画素)程度の比較的低画素数である。一方、デジタル一眼レフカメラの解像度は1000万画素を超えている。
時間解像度もまた多岐にわたって使い分けられている。たとえばHDTVまでの画素数の時間解像度については、民生機器によるビデオレート(30フレーム/秒)での撮像が実現されている。しかしながら、それ以上の画素数での撮像については、そのフレームレートは、デジタルスチルカメラに搭載されている連写機能による毎秒数フレームにとどまっている。
一方、映像表示の分野では、フラットテレビが急激な勢いで普及している。これに伴い、今後様々な解像度のカメラとディスプレイの組み合わせにより、ユーザが映像を視聴することが予測される。
入力側のカメラの時空間解像度(「時間解像度および空間解像度」を意味する。以下同様)と出力側のディスプレイの時空間解像度を比較すると、現状の民生機器では出力側のディスプレイの方が高い。そのため、出力側の性能を最大限発揮させる映像を一般ユーザが手軽に入力できる状況にない。
このような状況になった理由として、これまでは読み出しスピードがボトルネックとなっていたことが挙げられる。高空間解像度の撮影は毎秒5フレーム程度までに限られ、逆に、毎秒30フレームの撮影はHDTVの空間解像度までに限られていた。したがって、高い空間解像度画像で、かつ高いフレームレートで撮像は困難であった。
上記の課題に対し、たとえば特許文献1から3は、高空間解像度と高フレームレートの撮像を両立するための方式として、2系統のカメラにより時間解像度と空間解像度の異なる画像を入力し、信号処理によって高空間解像度で高フレームレートの画像を生成する方式を提案している。これらの特許文献には図18に示す構成が記載されている。
図18は、従来の撮像装置の構成を示す。撮像装置に入射した光は、その一部がハーフミラー171を透過し、第1カメラ172に入射する。その結果、低解像度、高フレームレートの動画像が撮影される。一方、撮像装置に入射した光のうち、ハーフミラー171で反射した光は、第2カメラ173に入射する。その結果、高解像度、低フレームレートの動画像が撮影される。
アップコンバータ174は、第1カメラ172および第2カメラ173で撮影された各動画像を受け取り、画像処理を行って、高解像度、高フレームレートの動画像を出力する。
特開平7−143439号公報 特表2005−515675号公報 特開2005―318548号公報
しかしながら、上述の撮像装置は、基本的にはモノクロ画像に対する処理を想定して構成されているため、赤(R),緑(G),青(B)の3チャネルからなるカラー画像に適用すると、処理量が3倍必要になる。また、処理後の画像中のエッジ付近でR,G,Bの各色に相関がなくなるために偽色が発生することがあり、画質低下を引き起こしていた。
本発明は上述の課題を解決するものであって、その目的は、演算量を低減させ、かつ、偽色の発生を抑えて、カラー画像の高解像度化を行うことにある。
本発明による撮像処理装置は、可視光を、第1色成分、第2色成分および第3色成分に分離する分離部と、前記第1色成分および第3色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、前記動画像を構成する各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、前記第2色成分の動画像を撮影する第2撮像部であって、前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、前記第1の撮像部および前記第2の撮像部における撮像条件を制御する制御部と、前記第1色成分の動画像の情報、および、前記第2色成分の動画像の情報に基づいて、時空間解像度を高めた前記第2成分の動画像を生成する第1アップコンバータと、前記第1色成分および前記第3色成分の各動画像の情報、および、時空間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を生成する第2アップコンバータとを備えている。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータと、空間解像度を低下させた前記第2成分の動画像および時空間解像度を高めた前記第2成分の動画像の関係に基づいて、解像度が低い動画像から解像度が高い動画像を生成するための復元フィルタの係数を推定する係数推定部と、推定された前記係数を利用して、前記第1色成分および前記第3色成分の動画像の空間解像度を高めて出力する復元フィルタとを備えていてもよい。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータを備えており、前記第2アップコンバータは、前記ダウンコンバータによって空間解像度を低下させた前記第2成分の動画像および時空間解像度を高めた前記第2成分の動画像の関係を学習して、学習結果に基づいて、前記第1色成分および前記第3色成分の動画像の空間解像度を高めて出力してもよい。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータを備えており、前記第2アップコンバータは、予め定められた、前記ダウンコンバータによって空間解像度を低下させた前記第2成分の動画像および時空間解像度を高めた前記第2成分の動画像の関係に関する学習パターンに基づいて、前記第1色成分および前記第3色成分の動画像の空間解像度を高めて出力してもよい。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータと、前記第1色成分および前記第3色成分の動画像を空間的に補間拡大する補間拡大部と、補間拡大された前記第1色成分および前記第3色成分の動画像の局所的な相関を示す相関値を演算する相関演算部とを備えており、時空間解像度を高めた前記第2成分の動画像の広域成分、および、前記相関値に基づいて、前記第1色成分および前記第3色成分の動画像に対応する広域成分を生成し、補間拡大された前記第1色成分および前記第3色成分の動画像に重畳して、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を出力してもよい。
前記第2アップコンバータは、前記ダウンコンバータによって空間解像度を低下させた前記第2成分の動画像と時空間解像度を高めた前記第2成分の動画像との差を演算して、時空間解像度を高めた前記第2成分の動画像の広域成分を生成してもよい。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像の広域成分と前記相関値とを乗算することにより、前記第1色成分および前記第3色成分の動画像に対応する広域成分を生成してもよい。
前記第2アップコンバータは、前記第1色成分および前記第3色成分の動画像の各フレームを空間的に補間拡大する補間拡大部を有していてもよい。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータと、前記第1色成分および前記第3色成分の動画像を空間的に補間拡大する補間拡大部と、時空間解像度を高めた前記第2成分の動画像、および、補間拡大された前記第1色成分および前記第3色成分の動画像に基づいて、輝度成分を計算する輝度計算部と、空間的に低解像度化された前記第2成分の動画像、および、補間拡大された前記第1色成分および前記第3色成分の動画像に基づいて、色差成分を計算する色差計算部とを生成してもよい。
前記第2色成分は緑であってもよい。
前記第2色成分は、赤、緑および青のいずれかから選択可能であってもよい。
本発明による撮像処理方法は、撮像装置によって撮影された動画像の情報を処理する画像処理方法であって、前記撮像装置は、可視光を、第1色成分、第2色成分および第3色成分に分離する分離部と、前記第1色成分および第3色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、前記動画像を構成する各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、前記第2色成分の動画像を撮影する第2撮像部であって、前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、前記第1の撮像部および前記第2の撮像部における撮像条件を制御する制御部とを有しており、前記撮像処理方法は、前記第1色成分の動画像の情報、および、前記第2色成分の動画像の情報に基づいて、時空間解像度を高めた前記第2成分の動画像を生成するステップと、前記第1色成分および前記第3色成分の各動画像の情報、および、時空間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を生成するステップとを包含する。
本発明によるコンピュータプログラムは、画像処理装置に設けられたプロセッサに、撮像装置によって撮影された動画像の情報を処理させるコンピュータプログラムであって、前記撮像装置は、可視光を、第1色成分、第2色成分および第3色成分に分離する分離部と、前記第1色成分および第3色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、前記動画像を構成する各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、前記第2色成分の動画像を撮影する第2撮像部であって、前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、前記第1の撮像部および前記第2の撮像部における撮像条件を制御する制御部とをさらに有しており、前記コンピュータプログラムは、前記プロセッサに、前記第1色成分の動画像の情報、および、前記第2色成分の動画像の情報に基づいて、時空間解像度を高めた前記第2成分の動画像を生成するステップと、前記第1色成分および前記第3色成分の各動画像の情報、および、時空間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を生成するステップとを実行させる。
本発明の撮像処理装置によれば、解像度とフレームレートが異なる複数の色成分の動画像から、解像度とフレームレートがともに高い多色動画像を生成することが可能になる。複数の色成分の動画像の各々は、ハーフミラーなどを用いることなく、たとえばダイクロイックミラーを用いて、入射光を色成分ごとに分離して撮影される。そのため、HDTV以上に高解像度化したカラー画像を動画として得るという効果や、HDTV用のカラーカメラをより小型化できる。
実施形態1による撮像処理装置1の構成を示す図である。 G用アップコンバータ106の構成をより詳細に示す図である。 (a)および(b)は、ブロックマッチングによって動き検出を行うときの基準フレームと参照フレームとを示す図である。 2×2画素のカラー画像を構成するR,G,B画素群を示す図である。 大きな画像中の局所領域を構成する画素i、i+1、i+wおよびi+w+1を示す図である。 RとBの局所的な相関ρと重みWとの関係を示す図である。 R,B用アップコンバータ107の構成をより詳細に示す図である。 他の例によるR,B用アップコンバータ107の構成を詳細に示す図である。 相関値ρと重みW2との関係の例を示す図である。 R,B用アップコンバータ107の構成の変形例を示す図である。 実施形態1の変形例による撮像処理装置11の構成を示す図である。 撮像処理装置1を一般化した撮像処理装置13の構成を示す図である。 実施形態2による撮像装置901、ネットワーク902および処理装置903で構成された画像処理システムの例を示す図である。 コンピュータによって構成された画像処理装置のハードウェアを示す図である。 本発明の処理の手順を示すフローチャートである。 図15に示すステップS103の詳細な処理の手順を示すフローチャートである。 他の例によるステップS103の詳細な処理の手順を示すフローチャートである。 従来の撮像装置の構成を示す図である。 2×2×2画素のカラー画像を構成するR,G,B画素群を示す図である。 着目画素とその近傍3画素のカラー画像を構成するR,G,B画素群を示す図である。
符号の説明
101 レンズ系
102 ダイクロイックミラー
103 第1の撮像部
104 第2の撮像部
105 画像処理部
106 G用アップコンバータ
107 R,B用アップコンバータ
120 制御部
以下、添付の図面を参照しながら、本発明による撮像処理装置の実施形態を説明する。
(実施形態1)
図1は、本実施形態による撮像処理装置1の構成を示す。撮像処理装置1は、レンズ系101と、ダイクロイックミラー102と、第1の撮像部103と、第2の撮像部104と、画像処理部105と、制御部120とを有している。
以下では、まず各構成要素の機能を概説し、その後、撮像処理装置1の動作に関連して各構成要素の動作を詳述する。
レンズ系101は、撮像処理装置1の外部から入射した光、すなわち被写体の像を集束させる。
ダイクロイックミラー102は、光の赤(R)成分および青(B)成分を透過させ、光の緑(G)成分を反射する。すなわちダイクロイックミラー102は、入射した光を、赤(R)成分および青(B)成分と、緑(G)成分とに分離する。なお、以下では、赤成分を「R成分」、緑成分を「G成分」、青成分を「B成分」とも記述する。
第1の撮像部103は、入射光(ここでは光のR成分およびB成分)に基づいて、短時間の露光時間、低解像度および高フレームレートでR成分およびB成分の動画像をそれぞれ撮影する。そして、得られたデータを出力する。なお、R成分の動画像およびB成分の動画像をそれぞれ取得するために、第1の撮像部103は内部にダイクロイックミラーを有し、かつ、R成分およびB成分を検出する撮像素子を備えていてもよい。
第2の撮像部104は、入射光(ここでは光のG成分)に基づいて、長時間の露光時間、高解像度および低フレームレートで動画像を撮影し、G成分の動画像のデータを出力する。
画像処理部105は、R成分およびB成分の光に対応する動画像のデータ、およびG成分の光に対応する動画像のデータを受け取り、それぞれを、画像処理によって高解像度および高フレームレートの動画像に変換して出力する。
画像処理部105は、G用アップコンバータ106およびR,B用アップコンバータ107を備えている。
G用アップコンバータ106は、G成分のフレームレートを高めた高解像度、高フレームレートの動画像のデータを生成する。R,B用アップコンバータ107は、R成分およびB成分の解像度を高め、高解像度、高フレームレートの動画像のデータを生成する。動画像は、1枚または複数枚の画像を所定のフレームレートで連続して切り替えて表示される。R,B用アップコンバータ107による解像度を高める処理は、動画像を構成する各画像の画素数を増加させることを意味する。
G用アップコンバータ106およびR,B用アップコンバータ107の詳細は後述する。
制御部120は、第1の撮像部103および第2の撮像部104を利用して動画像を撮影するときの撮像条件を制御する。そしてその制御情報を、G用アップコンバータ106およびR,B用アップコンバータ107に出力する。
次に、撮像処理装置1の動作とともに各構成要素の動作を詳述する。
レンズ系101は、被写体の像が、第1の撮像部103および第2の104の撮像素子上に結ばれるよう、その位置が調整される。レンズ系101を通った光は、ダイクロイックミラー102によってR成分、G成分、B成分に分離される。
上記R成分およびB成分の動画像は、制御部120から指示された撮像条件、すなわち、短時間露光、低解像度、高フレームレートで、第1の撮像部103によって撮影される。ここで、「低解像度」とは、例えばNTSCの1フレームの画素数(水平720画素×垂直480画素)程度か、もしくは、それ以下のVGA(Video Graphics Array:水平640画素×垂直480画素)程度の画素数の解像度をいう。「高フレームレート」とは、30fps(フレーム/秒)ないし60fps程度をいう。「短時間露光」とは、最長でもフレームレートで決まる上限値(本実施の形態の場合、30分の1秒ないし60分の1秒)以下の時間で露光することをいう。
上記G成分の動画像についても、制御部120から指示された撮像条件、すなわち、長時間露光、高解像度、低フレームレートの撮像条件で、第2の撮影部104によって撮影される。ここで、「高解像度」とは、例えば一般的なデジタルスチルカメラの画素数(例えば水平約4000画素、垂直約3000画素)の解像度をいう。「低フレームレート」とは、第1の撮像部103の数分の1から10分の1ないし20分の1程度のフレームレート(たとえば3fps(フレーム/秒))をいう。「長時間露光」とは、前記低フレームレートの値で決まる時間(たとえば1/3秒)を上限として露出することをいう。
本実施形態においては、第1の撮像部103および第2の撮像部104は、制御部120によって同期制御されて動作する。しかしながら、同期して動作することは必須ではない。
なお、上述した露光時間の長短、解像度の高低、フレームレートの高低は、第1の撮像部103および第2の撮像部104における相対的な撮像条件を意味する。カラー画像のR成分およびB成分の露光時間は、G成分の露光時間よりも短ければよい。R成分およびB成分の解像度(ここでは画素数に対応)はG成分のそれよりも低ければよい。R成分およびB成分のフレームレートはG成分のそれよりも高ければよい。例示した上述の数値範囲に限定されることはない。
以下、本明細書では、解像度が高く(H)フレームレートが低い(L)、Gの色成分の動画像をGHL、解像度が低く(L)フレームレートが高い(H)、RおよびBの色成分の動画像をそれぞれRLH、BLHのように表記する。1文字目が色成分を表し、2文字目(第1の添え字)が解像度を表し、3文字目(第2の添え字)がフレームレートを表す。
G用アップコンバータ106は、長時間露光、高解像度で低フレームレート撮像されたG画像GHL、短時間露光、低解像度で高フレームレート撮像されたR画像およびB画像RLH,BLHのデータを撮像条件として受け取り、GHLを高解像度化しGHHとして出力する。
すなわち、G用アップコンバータ106は、同じ解像度で高フレームレート化した合成動画像を生成する。これは、緑の合成動画像の主観画質が最も良くなるように処理することを意味している。
このように処理する理由は、人の視覚感度は赤、青よりも緑に対して高いという特性を有しており、一般的には緑の合成動画像の主観画質が最も良くなるようにすることが望ましいためである。
緑の合成動画像の主観画質を良くするためには、緑の動画像を高解像度低フレームレートで撮影することが好適な場合が多いと考えられる。例えば、画像中の被写体が静止もしくは動きが小さい場合、緑の動画像を高解像度低フレームレートで撮影すると、赤や青の合成動画像に対して、緑の合成動画像の解像度が高く、その結果主観画質が高くなる。そして、赤や青に比べてさらに緑の動画像のフレームレートを高くすることで、主観画質が良くなることが期待できる。
図2は、G用アップコンバータ106の構成をより詳細に示す。図2において、図1の撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。
G用アップコンバータ106は、動き検出部108および時間解像度アップコンバータ109を有している。
動き検出部108は、ブロックマッチング、勾配法、位相相関法等の既存の公知技術によって、RLH、BLHから動き(オプティカルフロー)を検出する。公知技術として、たとえばJ. L. Barron, D. J. Fleet, S. S. Beauchemin, and T. A. Burkitt. “Performance of Optical Flow Techniques”, In Proc. Computer Vision and Pattern Recognition, pp. 236-242, 1992が知られている。
図3(a)および(b)は、ブロックマッチングによって動き検出を行うときの基準フレームと参照フレームとを示している。動き検出部108は、基準とするフレーム(動きを求めるべく着目している時刻tにおける画像)内に、図3(a)に示す窓領域Aを設定する。そして、窓領域内のパターンと類似するパターンを参照フレーム内で探索する。参照フレームとして、たとえば着目フレームの次のフレームが利用されることが多い。
探索範囲は、図3(b)に示すように、通常、移動量ゼロの位置Bを基準に予め一定の範囲(同図3(b)中のC)が設定される。また、パターンの類似の度合い(程度)は、(数1)に示す残差平飽和(SSD:Sum of Square Differrences)や、(数2)に示す残差絶対値和(SAD:Sum ofAbsoluted Differences)を評価値として計算することによって評価する。
Figure 2009019824
Figure 2009019824
(数1)および(数2)において、x,y∈Wは、基準フレームの窓領域内に含まれる画素の座標値を意味する。
動き検出部108は、探索範囲内で(u,v)を変化させることにより、上記評価値を最小とする(u,v)の組を探索し、これをフレーム間での動きベクトルVとする。窓領域の設定位置を順次シフトさせることによって、動きを画素毎もしくはブロック毎(例えば8画素×8画素)に求める。
再び図2を参照する。時間解像度アップコンバータ109は、第1の撮像部103によって撮像されたR画像RLHおよびB画像BLH、第2の撮影部104によって撮像されたG画像GHL、および、動き検出部108によって検出された動きベクトルVの各データを受け取り、GHLを高解像度化しGHHとして出力する。
ここで、GHLの高解像度化は、下記の(数3)を最小化するGHHを求めることによって行われる。
Figure 2009019824
ここで、GHH、GHLは動画像の各画素を要素とする縦ベクトル、HTは長時間露光による光の加算をモデル化した行列、λsは滑らかさ拘束に対する重み、Qsは滑らかさ拘束、λmは動き拘束に対する重み、Qmは動き拘束、λcは色相関拘束に対する重み、HSは高解像度画像と低解像度画像の関係をモデル化した行列、Qcは色相関拘束を表している。制御部120によって第2の撮像部104に設定される撮影条件は、少なくとも上記HT、Qs、QmおよびQcに反映される。
上記(数3)を最小化するGHHとは、与えられた拘束条件の線形和をもっともよく満足するGHHを意味する。なお、数3の左辺はスカラーである。右辺の各項の導出過程は後述する。
時間解像度アップコンバータ109は、下記(数4)に基づいて(数3)を最小化するGHHを得る。
Figure 2009019824
その結果、時間解像度アップコンバータ109は、(数5)に示す連立方程式を解くことによってGHHを得る。
Figure 2009019824
(数5)は共役勾配法や最急降下法等の既存の数値計算法(連立方程式の解法)を用いることによって解くことができる。
時間解像度アップコンバータ109が、入力されたGHLを上述の手順によって高解像度化しGHHを求める処理は、フレーム数を多くする処理、すなわち時間解像度を高める処理だけでなく、ぼけた画像をくっきりした(シャープな)画像に変換する処理も含んでいる。G成分の動画像は、第2の撮像部104によって高解像度で撮影されているが、長時間露光の影響で画像の一部がぼけていることもありえる。そこで画像のシャープ化処理も含めて「高解像度化」と称している。
以下に、(数3)の各項の意味、働きについてより詳細に説明する。
(数3)の第一項は、高解像度化したGHHから予測される長時間露光画像と、実際に観測した長時間露光画像GHLとの差異を示す。これは、高解像度化したGHHと、長時間露光画像GHLと画像間の時空間的な対応関係を表している。ここで、HTでは行の数が列の数より少ない。これは、GHLが長時間露光画像であって、GHHよりもフレームレートが低い(すなわち、トータルの画素数が少ない)ことからも理解できる。そのため、仮に(数3)の左辺を第一項だけにすると、解くべき問題(すなわち連立方程式)が一意に解けない不良設定問題となる。
この不良設定問題を良設定問題に変更するために、(数3)の第一項には第二項以降が付加されている。(数3)の第二項は、画像が一般的に満たしている特性、すなわち近傍画素間の局所的な滑らかさを示す。動画像をI(x,y,t)とすると、局所的な滑らかさは、
Figure 2009019824
として表すことができる。ここで、積分範囲は動画像の占める時空間全体であり、数6の被積分関数中の||・||はベクトルのノルムを示す。(数3)の第二項は、(数6)を差分展開しIをGに置き換えて、行列QsとベクトルGHHの積の形で表している。
(数3)の第三項は、画像中の動きに関する拘束である。ここでは、動画像中の各点が明るさを変えずに移動していくことを仮定している。第三項中の行列Qmは、動画像中で検出された動きベクトルの始点と終点の画素に関係する要素だけが、それぞれ1と−1になっている。そのため(QmHH2は、動きベクトルの始点と終点間の残差の2乗の動画像全体に関する総和となる。
(数3)の第四項は、R,G,B間の局所的な相関に関する拘束である。(数3)の第二項で局所的な滑らかさを仮定しているのと同様、ここでは、局所的なR,G,Bの画素値の間での相関(色相関)を仮定する。
いま、簡単のために、図4に示す例で考える。図4は、2×2画素のカラー画像を構成するR,G,B画素群を示す。ここでは、R,G,B間で相関があると仮定している。すなわち、各画素におけるR,G,Bの比が一様であると仮定している。すると下記(数7)が成り立つ。
Figure 2009019824
これら各4つの比から2つを選ぶと、その選び方は4C2=6通りであることから、(数8)を得る。
Figure 2009019824
(数8)を行列とベクトルで表すと、(数9)となる。
Figure 2009019824
局所的な領域として2×2画素を考えた場合、RGB間の相関は、(数9)の左辺のノルム(数10)によって評価できる。
Figure 2009019824
ここで、qTqは(数11)によって表すことができる。
Figure 2009019824
次に、2×2画素よりも大きな画像中の局所領域として2×2画素の領域を考える。図5は、大きな画像中の局所領域を構成する画素i、i+1、i+wおよびi+w+1を示す。図5に示すように、局所領域の左上の画素をi番目の画素とすると、右上の画素はi+1番目、左下の画素はi+w番目(ここで、wは画像の幅の画素数)、右下の画素はi+w+1番目の画素となる。そのため、この場合(数11)は(数12)のように変形される。
Figure 2009019824
画像全体についてQc Tcを計算するには、Qc Tcの全要素を0にしたのち、局所領域の左上の画素の位置(すなわちi)を順次シフトさせながら、(数10)で示される局所的な係数を大域的な係数行列Qc Tcに加算してゆけばよい。この時、局所領域の位置を縦横にそれぞれ1画素ずつシフトさせて互いに重なるように配置してもよいし、もしくは、縦横にそれぞれ2画素ずつシフトさせて互いに重ならずに隣接するように配置してもよい。後者の場合には、局所領域境界でアーチファクトが生じる場合がありえるが、より少ない演算量でほぼ同等の効果を得ることができる。
以上述べた手順により、HT、Qs、Qm、Qc Tcを計算することができる。なお、(数3)の第4項に含まれているHSは、GHHを空間的に低解像度化する作用素である。これは、上記の色相関拘束をGHHの中域とRLH,BLHの間で課すために用いられている。
また、各拘束についての重みλs、λm、λcの各値は、生成される画像GHHの画質がよくなるように設定する。たとえば(数3)において、これらのパラメータで重み付けした各項(先頭の項を含む4項)の大きさがオーダーとしてほぼ揃うことが、重みλs、λm、λcの値を設定する際のひとつの目安となる。逆にこれら4項の大きさのオーダーが不揃いであると、値の大きな項が拘束条件として支配的になり、値の小さな項は拘束条件として効いていないことになる。
以上のように計算した行列と重みを用いて、観測される画像GHLに対して(数5)の連立方程式を解くことにより、GHHを生成できる。
なお、(数12)に示した局所的な領域におけるRとBの相関に応じて(数13)の様に重み付けすることにより、RB間の相関に応じて視覚的により自然なGHHを再現することができる。
Figure 2009019824
ここで、重みWの分布としては、局所領域内のRとBの相関値(−1から1)に応じて、0から1の値をとるように設定する。たとえば図6は、RとBの局所的な相関ρと重みWとの関係を示す。図4に示す2×2画素の領域に関して、RとBの局所的な相関値ρは(数14)によって示される。
Figure 2009019824
RとBの局所的な相関値ρが得られると、図6の関係に基づいて重みWが決定される。
なお、局所的なRとBの相関は、必ずしも2×2画素の領域について求める必要はなく、3×3画素、4×4画素、5×5画素等のより広い範囲の矩形領域について求めてもよい。また、円形や4角形以上の多角形等の領域について求めたり、ガウシン関数等により着目画素位置近傍を重視するような重みをつけて計算してもよい。このような計算方法により、画像のパターンに対して、相関値の計算をより等方性のあるものにできる。
なお、本実施の形態においては、色相関に関する拘束QcをR,G,Bのレベルそのものを用いて計算したが、レベルそのものの代わりにR,G,Bのこう配を用いても同様の効果を得ることができる。その様な例について以下に説明する。
動画像中の動きに関しては、対応点間で明るさが一定であると仮定すると、画像中の動きベクトル(u,v)について、オプティカルフローの関係が近似的に成り立つことが知られている。R,G,Bそれぞれについてのオプティカルフローの式は(数15)となる。
Figure 2009019824
ここで、画像中の動きベクトル(u,v)がR,G,B間で同じであるとすると、(数16)を得る。
Figure 2009019824
(数16)において、R,Gは1画素の値について考えている。しかしながら、∂/∂x,∂/∂yは差分展開により行列として表現できるので、R,Gをベクトルとして考えると、動画像全体について(数17)を得る。
Figure 2009019824
画像全体について、(数17)の各式を可能な限り同時に成立させるために、(数18)を最小化するGHHを求める。
Figure 2009019824
(数18)を最小化するGHHを求めるためには、(数18)をGHHで偏微分して得られる式をゼロにするGHHを求めればよい。これにより(数19)を得る。
Figure 2009019824
(数19)と(数3)の第4項との比較より、(数20)を得る。
Figure 2009019824
なお、局所的な相関関係は、ここまでで説明したような空間的な近傍についてのものに限る必要はなく、時間的空間的近傍について考えてももちろんよい。例えば、その一例として図20の様な近傍領域について考えることにより、より安定した効果を得ることができる。図19は、2×2×2画素のカラー画像を構成するR,G,B画素群を示す。ここでは、R,G,B間で相関があると仮定している。すなわち、各画素におけるR,G,Bの比が一様であると仮定している。すると下記(数21)が成り立つ。
Figure 2009019824
これら各8つの比から2つを選ぶと、その選び方は=28通りであることから、(数22)(数23)を得る。
Figure 2009019824
Figure 2009019824
(数22)(数23)を行列とベクトルで表すと、(数24)(数25)となる。
Figure 2009019824
Figure 2009019824
(数24)(数25)より以下の関係を得る。
Figure 2009019824
局所的な領域として2×2×2画素を考えた場合、RGB間の相関は、(数25)の左辺のノルム(数27)によって評価できる。
Figure 2009019824
2×2×2画素よりも大きな画像中の局所領域として2×2×2画素の領域を考える場合には、先に2×2画素の空間的な近傍領域について考えた場合と同様に、局所的な関係を大域的な関係式に順次加算していくことにより、大域的な関係式を得ることができる。
なお、上記2×2×2画素の近傍領域について局所的な相関関係を考えるかわりに、図20に示すように、着目画素と着目画素に時間的、空間的に隣接する3画素の計4画素のみについて局所的な相関関係を考えてもよい。この場合、2×2×2画素の近傍領域について局所的な相関関係を考えるよりも少ない演算量で、ほぼ同様の効果を得ることができる。
さらに、上記の様な形で時間方向の近傍領域について局所的な相関関係を考えるかわりに、オプティカルフローの方向、すなわち、動きベクトルの方向に沿って局所的な相関関係を仮定することにより、オプティカルフロー(動きベクトル場)が正しく求められている場合には、よりいっそう安定した効果を得ることができる。さらに、動きベクトルがサブピクセル精度で得られている場合には、小数点以下の動きベクトルの値を用いた重み付けにより、サブピクセル精度の動き情報を有効に用いることができる。
上述の(数3)に関しては、右辺第1項から第4項までの拘束条件は、必ずしもそれら全てを同時に用いる必要はない。以下のような変形例を用いてもよい。すなわち、(数1)の第1項と第2項のみを利用して
Figure 2009019824
としてもよい。または、(数3)の第1項と第4項のみに基づく(数29)を利用してもよい。
Figure 2009019824
または、(数3)の第1項と第2項と第3項のみに基づく(数30)を利用してもよい。
Figure 2009019824
または、第1項と第2項と第4項のみに基づく(数31)を利用してもよい。
Figure 2009019824
これらの変形例によれば、(数3)に示す4項全ての拘束条件を用いて(数1)によって計算するよりも少ない演算量でG成分の高解像度化を実現できる。ただし、拘束条件を緩和することになるため、生成される画像の高解像度感が多少低下することがある。
また、動き検出が難しいシーンでは、動き検出の結果を用いない数式((数28)、(数29)または(数31))によって高解像度化処理を行うことにより、出力される画像の画質に関して、動きの誤検出によるアーティファクト(画像の乱れ、ノイズ)の発生を抑えることができる。シーンからの動き検出が難しいか否かは、(a)時間的に双方向に動き検出を行った結果の差異から判断したり、(b)(数1)、(数2)に示した動き検出時の評価値の探索範囲内での最小値から判断することができる。
前者(a)の場合、基準フレームの画像中の(x,y)において、時間的に順方向の動き検出結果が(u,v)であるとすると、次に順方向の動き検出時の参照フレームを基準に逆方向に動き検出をして、(x+u,y+v)における動き検出結果が(−u,−v)であれば、双方向の動き検出において一貫性があり信頼できる。一方、(−u,−v)と異なる場合、例えば一定のしきい値以上の差異がある場合には、動き検出が難しい状況であると判断できる。
また、後者(b)の場合も同様に、SSDやSADの動き検出時の評価値の探索範囲内での最小値について、例えば予め定めたしきい値以上である場合、動き検出が難しい状況であると判断できる。
また、色相関のないシーンについては、(数28)や(数30)を用いればよい。(数13)に示す重み付け方法によれば、色相関のないシーンを処理すると重みが小さくなる。よって、その場合には自動的に(数30)を用いていることになる。
再び図1を参照する。R,B用アップコンバータ107は、G用アップコンバータ106によって高解像度化されたG成分の動画像を用いて、第1の撮像部103によって、短時間露光、低解像度、高フレームレートの撮像条件で撮像されたR,B成分の動画像を高解像度化する。
以下、図7を参照しながら、R,B成分の動画像を高解像度化する処理を詳細に説明する。
図7は、R,B用アップコンバータ107の構成をより詳細に示す。図7において、図1の撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。
R,B用アップコンバータ107は、ダウンコンバータ110と、係数推定部111と、復元フィルタ112とを有している。
ダウンコンバータ110は、G用アップコンバータ106によって高解像度化されたG成分(GHH)を空間的に低解像化し、GLHを出力する。係数推定部111は、GHHとGLHから復元フィルタ112(復元フィルタH+)のフィルタ係数を推定する。復元フィルタ112として、ウィーナフィルタや一般逆フィルタ等の公知のフィルタを用いることができる。これらの復元フィルタは、GHHとGLHの関係を用いて、低解像度側の信号から高解像度側の信号を推定するものである。復元フィルタ112は、係数推定部111によって推定されたフィルタ係数を用いて、RLH,BLHからRHH,BHHを復元する。
なお、R,B用アップコンバータ107におけるR,Bの高解像度化処理は、上述の、いわゆる再構成型の処理に限る必要はなく、他の高解像度化処理によって行ってもよい。他の例による高解像度化処理を以下に説明する。
図8は、他の例によるR,B用アップコンバータ107の構成を詳細に示す。ここで、R,B用アップコンバータ107は、RとBの相関に応じてGの高域成分を、補間拡大したR成分およびB成分に重畳することにより、R成分およびB成分を高解像度化する。
図8に示されるR,B用アップコンバータ107は、ダウンコンバータ113と、補間拡大部114と、局所相関演算部115と、重み生成部116と、カウンタ117と、画像メモリ118と、正規化部119とを有している。
R,B用アップコンバータ107は、動画像を構成するフレーム単位で処理を行う。まず、各フレーム処理の初めに、カウンタ117の内容と画像メモリ118の内容を、たとえば0で埋めることにより、クリアする。
低解像度化部113はG用アップコンバータ106によって高解像度化されたG成分(GHH)を空間的に低解像化し、GLHを出力する。
補間拡大部114は、低解像度、高フレームレートで撮像されたRLH,BLHと撮影条件とを受け取り、RLHとBLHとをGHHと同じ画素数になる様に補間拡大する。
局所相関演算部115は、2×2画素や3×3画素程度の局所的な領域に関し、RLHとBLHの局所的な相関値を計算する。2×2画素について局所的な相関値ρを計算するときは、局所相関演算部115は、たとえば(数14)を利用することができる。
重み生成部116は、局所相関演算部115によって計算された相関値に応じた重みを生成する。図9は、相関値ρと重みW2との関係の例を示す。重み生成部116は、相関値ρと図9に示す関係とに基づいて、重みW2を求める。
図8に示されるように、重み生成部116によって生成され、出力された重みと、GHHとGLHの差(すなわちGの高域成分)とが乗算され、画像メモリ118が更新される。より詳しくは、乗算が行われた後、画像メモリ118内の画素データの格納位置に応じたアドレスが特定される。そして、乗算結果とそのアドレスに保持されていた値とが加算され、そのアドレスの値が加算結果に書き換えられる。
このとき、画像メモリ118に書き込みを行う対象は、1画素でもよく、または、局所的な相関値を計算した範囲でもよい。ただし、後者の様に複数画素について高域成分を重畳する場合、局所相関を計算する領域の設定の仕方(すなわち画像内でのインクリメントの仕方)によっては、同一画素に複数回、高域成分を重畳することになる。そのような場合を考慮して、図8のR,B用アップコンバータ107では、カウンタ117を利用する。カウンタ117は、高域成分を重畳した回数を各画素について記憶する。
正規化部119は、複数回重畳した高域成分を、カウンタ117に1画素毎に記憶されている書き込み回数値で除算する。正規化された高域成分は、補間拡大部114によって補間拡大されたR,B画像に重畳され、RHH,BHHとして出力される。
以上述べた方法によって、R,Bを高解像度化することにより、局所的な色バランスを保った状態でRとBとを高解像度化することができ、その結果、偽色の発生を抑えた高解像度化を行うことができる。
なお、図9には相関値と重みの関係の一例として線形な関係の場合を示した。しかしこれは例であり、撮像時や表示時のγ特性を考慮して非線形な関係にしてもよい。また、前記の重みを、Rについては(Rの局所平均)/(Gの局所平均)で正規化し、Bについては(Bの局所平均)/(Gの局所平均)で正規化してもよい。この正規化により、R、G、Bの画素値に応じて、RとB重畳するGの高域成分の振幅を調節することができ、過度な高域の重畳による観察時の違和感を低減できる。ここで、R、G、Bの局所平均としては、補間拡大したRLH、BLHや図8のダウンコンバータ113でGHHをダウンコンバートしたGLHの画素値を用いればよい。
なお、補間拡大したR、B画像に対する高域成分の重畳を1画素につき1回だけ行うように動作させるとすると、図8の画像メモリ118、カウンタ117、正規化部119は不要であり、図10に示す構成を採用することができる。図10は、R,B用アップコンバータ107の構成の変形例を示す。図10に示すように、図8と比較するとより簡単な構成でR,B用アップコンバータ107を実現することができ、かつ、同様の効果を得ることができる。
なお、R,B用アップコンバータ107におけるR,Bの高解像度化処理は、上述したいわゆる再構成型の超解像処理や、Gの高域成分をRおよびB成分に重畳する処理に限る必要はない。高解像度化したG成分とそれを低解像度化したもの(上記GLHとGHH)との間の関係を学習し、学習結果に基づいてR成分、B成分を高解像度化するようにしてもよい。
なお、学習は入力された画像の処理過程において行うものに限らず、予め事前に学習パターンを用意して行うようにしてもよい。この場合には、低解像度のG成分と高解像度のG成分の関係を学習する方法だけでなく、低解像のRGB成分と高解像度のRGB成分の関係を学習することも可能である。
これまでの説明では、出力信号はR,G,Bの各色成分であるとした。以下では、RGBの各出力信号を輝度成分と色差成分に変換して出力する撮像処理装置を説明する。
図11は、本実施形態の変形例による撮像処理装置11の構成を示す。図11において、上述した撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。
画像処理部105は、G用アップコンバータ106、補間拡大部114、およびダウンコンバータ113に加え、さらに色差計算部129および輝度計算部130を有する。
制御部120は、補間拡大部114によって補間拡大されたR成分、B成分の信号、および、低解像度化部113で低解像度化されたG成分の信号を受け取り、(数32)の計算によって色差信号(Cb信号、Cr信号)に変換して出力する。
Figure 2009019824
輝度計算部130は、補間拡大部114によって補間拡大されたR成分、B成分の信号、および、G用アップコンバータで高解像度化されたG成分の信号を受け取り、(数33)の計算によって輝度信号(Y信号)に変換して出力する。
Figure 2009019824
上述の色差計算部129および輝度計算部130の説明から理解されるように、色差成分Cb、Crの計算には低解像度化したGを用い、一方、輝度成分Yの計算には高解像度化されたGを用いている。これにより、偽色の発生を抑えつつ、出力される画像の高解像度化を実現できる。
なお、画像処理部105の後段にY、Cb、Crの各信号をRGBの各信号へ変換するブロックをさらに設けて、RGB成分の信号を出力する構成にしてもよい。
なお、本実施形態による撮像処理装置およびその変形例による撮像処理装置は、G成分を高解像度、長時間露光、低フレームレートで撮像し、R成分およびB成分を低解像度、短時間露光、高フレームレートで撮像するとした。しかしながら、これは例である。どの色成分(波長帯)を高解像度、長時間露光、低フレームレートで撮像するかについては、他の例を採用することが可能である。
たとえば、海やプール等、水中のシーンを撮像する場合の様に、シーン中にB成分が強く現れることが事前に分っている場合には、B成分を高解像度、長時間露光、低フレームレートで撮像し、R成分およびG成分を低解像度、短時間露光、高フレームレートで撮像することにより、観察者により高解像度感のある画像を提示することができる。
たとえば図12は、撮像処理装置1を一般化した撮像処理装置13の構成を示す。図12において、図1の撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。
撮像処理装置13は、R成分撮像部131と、G成分撮像部132と、B成分撮像部133と、制御部134と、切替部135と、HL用アップコンバータ136と、LH用アップコンバータ137と、出力部138とを有している。以下、撮像処理装置13の動作とともに各構成要素の機能を説明する。
光学系101を通った可視光は、ダイクロイックプリズムで波長分解され、R成分撮像素子131、G成分撮像素子132、B成分撮像素子133によって撮像される。RGB各成分の撮像部131,132,133の読み出し画素数は、ビニング読み出し方法により、個別に、かつ動的に設定できる。「ビニング読み出し方法」とは、隣接する画素に蓄積された電荷を加算して読み出す方法である。また、各撮像部131,132,133では、露光時間、フレームレートについても同様に設定可能とする。読み出し時の条件設定は、制御部134によって行われる。
制御部134は、シーン中の色成分の分布に応じて、R成分撮像素子131、G成分撮像素子132、B成分撮像素子133のうちのいずれかを、高解像度、長時間露光、低フレームレート(実施の形態1におけるGに相当)に設定し、残りを低解像度、短時間露光、高フレームレート(実施の形態1におけるR,Bに相当)に設定する。
なお、撮像開始時にはシーン中の色成分の分布が未知であるので、例えばGを高解像度、長時間露光、低フレームレートに設定する様にすればよい。
切替部135は、制御部によるRGB各成分の撮像部131,132,133の設定に応じて、高解像度、長時間露光、低フレームレートでの撮像が設定されている成分の撮像データがHL用アップコンバータ136に入力され、残りの成分のデータがLH用アップコンバータ137に入力されるように切り替え動作を行う。
HL用アップコンバータ136は、G用アップコンバータ106(たとえば図1)と同じ処理を行い、高解像度、長時間露光、低フレームレートで撮像された成分の動画像を空間的に高解像化する。
LH用アップコンバータ137は、低解像度、短時間露光、高フレームレートで撮像された2系統(2つの色成分)の動画像と、HL用アップコンバータ136で高解像度化された動画像とを受け取り、R,B用アップコンバータ107(たとえば図1)と同じ処理により、その2系統の動画像を空間的に高解像化する。
出力部138は、HL用アップコンバータ136とLH用アップコンバータ137によってそれぞれ高解像度化された動画像を受け取り、制御部134による設定に応じて、RGB3系統の動画を出力する。もちろん、出力部138が輝度信号(Y)および色差信号(Cb,Cr)信号等の、他の信号形式に変換して出力するようにしてもよい。
(実施形態2)
上述の実施形態1においては、撮像処理と高解像度化処理とが同一のシステムによって行われる例を説明した。しかしながら、両処理は必ずしも同一のシステムで行われる必要はない。
本実施形態においては、撮像処理と高解像度化処理とが異なるシステムにおいて行われる例を説明する。
図13は、本実施形態による撮像装置901、ネットワーク902および処理装置903で構成された画像処理システムの例を示す。ネットワーク902に代えて、メディア906を用いても、本実施形態による画像処理システムを構成することができる。図14において、実施形態1の撮像処理装置(たとえば図1)の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。
撮像装置901は、レンズ系101と、ダイクロイックミラー102と、第1の撮像部103と、第2の撮像部104と、撮影モード設定部904とを有している。
第1の撮像部103は、カラー画像のR成分とB成分とを短時間の露光時間で、低解像度かつ高フレームレートで撮像し、R画像RLHおよびB画像BLHを出力する。第2の撮像部104は、カラー画像のG成分を長時間の露光時間で、高解像度かつ低フレームレートで撮像し、G画像GHLを出力する。
撮影モード設定部904は、例えば第2の撮像部104におけるフレームレート、露光時間等の、設定が可変な撮影条件を設定し、設定した条件を示す情報を映像信号のヘッダ中のコメント領域に書き込み、または、別途データとして出力部905を介してネットワーク902に出力する。
出力部905は、撮像装置901によって撮像されたG画像GHL、R画像RLH、B画像BLH、および、それらの撮影条件の情報をネットワーク902またはメディア906に出力する。
処理装置903は、画像処理部105を有している。画像処理部105は、ネットワーク902またはメディア906を介して、上記GHL、RLH、BLHおよびその撮影条件の情報を受け取り、実施形態1において説明した処理により、これらを空間的、時間的に高解像度化したGHH、RHH、BHHを出力する。
以上の構成により、撮像装置と処理装置とが別体で構成され、空間的に離れて存在していても、ネットワーク902またはメディア906を介して動画像信号および撮影条件の情報を授受できるように構成することにより、処理装置が高時空間解像度の動画像を出力できる。
なお、ネットワーク902は家庭内に構築されたLAN(Local Area Network)でもよいし、インターネットなどのWAN(Wide Area Network)でもよい。または、USB規格やIEEE1394規格の通信回線でもよい。さらに無線でも有線でもよい。上述のメディア906は、光ディスクや取り外し可能なハードディスクなどのリムーバブルディスク、フラッシュメモリカードが含まれる。
上述の各実施形態では、撮像処理装置は、図に示す種々の構成を有するとして説明した。たとえば、各構成に含まれる画像処理部などは、機能的に見たブロックとして記載されていた。これらの機能ブロックは、ハードウェア的には、デジタル信号プロセッサ(DSP)のような1つの半導体チップまたはICによって実現することも可能であるし、たとえばコンピュータとソフトウェア(コンピュータプログラム)とを用いて実現することもできる。
たとえば、図14は、コンピュータによって構成された画像処理装置のハードウェアを示す。
各実施形態の画像処理装置の各機能ブロックと、図15に示すハードウェアとの対応関係は以下のとおりである。以下では例として、主に図1に示す画像処理装置1を挙げて説明する。
撮像処理装置1のレンズ系101、ダイクロイックミラー102、第1の撮像部103および第2の撮像部104は、図15に示すカメラ151およびA/D変換器152に対応する。また、画像処理部105が実際の処理で利用する一時バッファ(図示せず)やメディア906は、図15に示すフレームメモリ153またはハードディスクドライブ(HDD)160に対応する。そして制御部120および画像処理部105は、コンピュータプログラムを実行した図15のCPU154によって実現される。
図14のコンピュータを動作させるコンピュータプログラムは、たとえばROM155に保持されている。または、光ディスク、磁気ディスクに格納されていてもよい。また、有線や無線のネットワーク、放送などを介して伝送され、コンピュータのRAM156に取り込まれてもよい。
コンピュータプログラムは、プロセッサであるCPU154によってRAM156に読み出されて展開される。CPU154はコンピュータプログラムの実態であるコード化された各命令を実行する。命令の実行結果として得られたデジタル画像信号は、フレームメモリ157に送られて一時的に保持され、D/A変換器158によってアナログ信号に変換され、ディスプレイ159に送られ、表示される。
画像処理部105を実現するコンピュータプログラムの処理は、たとえば次に説明するフローチャートにしたがって記述されている。
たとえば図15は、本発明の処理の手順を示すフローチャートである。この処理は、実施形態1による処理として説明するが、実施形態2の撮像装置901および処理装置903によって個別に行われる処理として把握することもできる。
まずS101において、第1の撮像部103および第2の撮像部104は、長時間露光高解像度低フレームレートのG画像GHLと短時間露光低解像度高フレームレートのR画像RLH、B画像BLHとを撮像する。ステップS102において、画像処理部105のG用アップコンバータ106は、G成分の動画像を高解像度化する。より具体的には、ステップS104とS105とに分けることができる。ステップS104において、G用アップコンバータ106の動き検出部108は、動き検出を行う。ステップS105において、時間解像度アップコンバータ109は、動き検出の結果等を利用して、(数4)に基づいて(数3)を最小化するGHHを求める。
次のステップS103において、R,B用アップコンバータ107は、R成分およびB成分の各動画像を高解像度化する。その後、制御部120は、撮像が完了したか否かを判定し、完了していないと判定すると処理はステップS101から繰り返され、完了したと判定すると処理は終了する。
図16は、図15に示すステップS103の詳細な処理の手順を示すフローチャートである。この処理は、図7に示すR,B用アップコンバータ107の処理に対応する。
図16のステップS106において、ダウンコンバータ110は、撮像条件に基づいてGHHを低解像度化する。ステップS107において、係数推定部111は復元フィルタ112に適用するための係数を推定する。ステップS108において、推定された係数が復元フィルタ112に適用され、復元フィルタ112は、RLHおよびBLHを高解像度化し、RHHおよびBHHを出力する。
図17は、他の例によるステップS103の詳細な処理の手順を示すフローチャートである。この処理は、図8に示すR,B用アップコンバータ107の処理に対応する。
ステップS109において、ダウンコンバータ113は、撮像条件に基づいてGHHを低解像度化する。ステップS110において、GHHからGLHが減算される。
一方、ステップS111において、補間拡大部114が撮像条件に基づいてRLHおよびBLHを補間拡大すると、その信号に基づいて、ステップS112において局所相関演算部115が局所的な相関値を計算する。
そしてステップS113において、重み生成部116が重みを生成すると、ステップS114においてカウンタ117が高域成分を重畳した回数を各画素について記憶する。ステップS115において、重み生成部116によって生成され、出力された重みと、GHHとGLHの差(すなわちGの高域成分)とが乗算され、ステップS116において画像メモリ118が更新される。
ステップS117において、正規化部119は、画像メモリ118に保持された、複数回重畳した高域成分を、カウンタ117に1画素毎に記憶されている書き込み回数値で除算して、正規化する。
そしてステップS118において、正規化された高域成分は、補間拡大部114によって補間拡大されたR,B画像に重畳され、RHH,BHHとして出力される。
以上、本発明の各実施形態を説明した。実施形態1および2においては、R,G,Bの3成分をダイクロイックミラーで分離する場合について説明したが、色成分の分離の形態はこれに限るものではない。たとえば単一の素子で深さ方向に、順に、R+G+B、R+G、Rと3層に分けて撮像する撮像素子を用いても、R+GもしくはR+G+Bを高解像度、長時間露光、低フレームレートで撮像し、その他を低解像度、短時間、低フレームレートで撮像した画像を受け取って処理することで、同様の効果を得ることができる。
本発明の撮像装置および処理装置は、撮像素子サイズを小型化したカメラによる高精細画像の撮像とその再生装置、システムとして有用である。また、コンピュータプログラムとしても実現することが可能である。
本発明は、動画像の画像処理に関する。より具体的には、撮影された動画像の解像度およびフレームレートの少なくとも一方を画像処理によって高くした動画像を生成する技術に関する。
近年映像入力の分野では、携帯電話用カメラやデジタルスチルカメラの多画素化、画素ピッチの小型化が進んでいる。
空間解像度は、画像撮像機器に必要とされる画質に応じて多岐にわたって使い分けられている。たとえばTV電話の解像度はQCIF(Quarter Common Intermediate Format、横176画素、縦144画素)程度、または、QVGA(Quarter Video Graphics Array、横320画素、縦144画素)程度の比較的低画素数である。一方、デジタル一眼レフカメラの解像度は1000万画素を超えている。
時間解像度もまた多岐にわたって使い分けられている。たとえばHDTVまでの画素数の時間解像度については、民生機器によるビデオレート(30フレーム/秒)での撮像が実現されている。しかしながら、それ以上の画素数での撮像については、そのフレームレートは、デジタルスチルカメラに搭載されている連写機能による毎秒数フレームにとどまっている。
一方、映像表示の分野では、フラットテレビが急激な勢いで普及している。これに伴い、今後様々な解像度のカメラとディスプレイの組み合わせにより、ユーザが映像を視聴することが予測される。
入力側のカメラの時空間解像度(「時間解像度および空間解像度」を意味する。以下同様)と出力側のディスプレイの時空間解像度を比較すると、現状の民生機器では出力側のディスプレイの方が高い。そのため、出力側の性能を最大限発揮させる映像を一般ユーザが手軽に入力できる状況にない。
このような状況になった理由として、これまでは読み出しスピードがボトルネックとなっていたことが挙げられる。高空間解像度の撮影は毎秒5フレーム程度までに限られ、逆に、毎秒30フレームの撮影はHDTVの空間解像度までに限られていた。したがって、高い空間解像度画像で、かつ高いフレームレートで撮像は困難であった。
上記の課題に対し、たとえば特許文献1から3は、高空間解像度と高フレームレートの撮像を両立するための方式として、2系統のカメラにより時間解像度と空間解像度の異なる画像を入力し、信号処理によって高空間解像度で高フレームレートの画像を生成する方式を提案している。これらの特許文献には図18に示す構成が記載されている。
図18は、従来の撮像装置の構成を示す。撮像装置に入射した光は、その一部がハーフミラー171を透過し、第1カメラ172に入射する。その結果、低解像度、高フレームレートの動画像が撮影される。一方、撮像装置に入射した光のうち、ハーフミラー171で反射した光は、第2カメラ173に入射する。その結果、高解像度、低フレームレートの動画像が撮影される。
アップコンバータ174は、第1カメラ172および第2カメラ173で撮影された各動画像を受け取り、画像処理を行って、高解像度、高フレームレートの動画像を出力する。
特開平7−143439号公報 特表2005−515675号公報 特開2005―318548号公報
しかしながら、上述の撮像装置は、基本的にはモノクロ画像に対する処理を想定して構成されているため、赤(R),緑(G),青(B)の3チャネルからなるカラー画像に適用すると、処理量が3倍必要になる。また、処理後の画像中のエッジ付近でR,G,Bの各色に相関がなくなるために偽色が発生することがあり、画質低下を引き起こしていた。
本発明は上述の課題を解決するものであって、その目的は、演算量を低減させ、かつ、偽色の発生を抑えて、カラー画像の高解像度化を行うことにある。
本発明による撮像処理装置は、可視光を、第1色成分、第2色成分および第3色成分に分離する分離部と、前記第1色成分および第3色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、前記動画像を構成する各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、前記第2色成分の動画像を撮影する第2撮像部であって、前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、前記第1の撮像部および前記第2の撮像部における撮像条件を制御する制御部と、前記第1色成分の動画像の情報、および、前記第2色成分の動画像の情報に基づいて、時空間解像度を高めた前記第2成分の動画像を生成する第1アップコンバータと、前記第1色成分および前記第3色成分の各動画像の情報、および、時空間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を生成する第2アップコンバータとを備えている。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータと、空間解像度を低下させた前記第2成分の動画像および時空間解像度を高めた前記第2成分の動画像の関係に基づいて、解像度が低い動画像から解像度が高い動画像を生成するための復元フィルタの係数を推定する係数推定部と、推定された前記係数を利用して、前記第1色成分および前記第3色成分の動画像の空間解像度を高めて出力する復元フィルタとを備えていてもよい。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータを備えており、前記第2アップコンバータは、前記ダウンコンバータによって空間解像度を低下させた前記第2成分の動画像および時空間解像度を高めた前記第2成分の動画像の関係を学習して、学習結果に基づいて、前記第1色成分および前記第3色成分の動画像の空間解像度を高めて出力してもよい。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータを備えており、前記第2アップコンバータは、予め定められた、前記ダウンコンバータによって空間解像度を低下させた前記第2成分の動画像および時空間解像度を高めた前記第2成分の動画像の関係に関する学習パターンに基づいて、前記第1色成分および前記第3色成分の動画像の空間解像度を高めて出力してもよい。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータと、前記第1色成分および前記第3色成分の動画像を空間的に補間拡大する補間拡大部と、補間拡大された前記第1色成分および前記第3色成分の動画像の局所的な相関を示す相関値を演算する相関演算部とを備えており、時空間解像度を高めた前記第2成分の動画像の広域成分、および、前記相関値に基づいて、前記第1色成分および前記第3色成分の動画像に対応する広域成分を生成し、補間拡大された前記第1色成分および前記第3色成分の動画像に重畳して、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を出力してもよい。
前記第2アップコンバータは、前記ダウンコンバータによって空間解像度を低下させた前記第2成分の動画像と時空間解像度を高めた前記第2成分の動画像との差を演算して、時空間解像度を高めた前記第2成分の動画像の広域成分を生成してもよい。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像の広域成分と前記相関値とを乗算することにより、前記第1色成分および前記第3色成分の動画像に対応する広域成分を生成してもよい。
前記第2アップコンバータは、前記第1色成分および前記第3色成分の動画像の各フレームを空間的に補間拡大する補間拡大部を有していてもよい。
前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータと、前記第1色成分および前記第3色成分の動画像を空間的に補間拡大する補間拡大部と、時空間解像度を高めた前記第2成分の動画像、および、補間拡大された前記第1色成分および前記第3色成分の動画像に基づいて、輝度成分を計算する輝度計算部と、空間的に低解像度化された前記第2成分の動画像、および、補間拡大された前記第1色成分および前記第3色成分の動画像に基づいて、色差成分を計算する色差計算部とを生成してもよい。
前記第2色成分は緑であってもよい。
前記第2色成分は、赤、緑および青のいずれかから選択可能であってもよい。
本発明による撮像処理方法は、撮像装置によって撮影された動画像の情報を処理する画像処理方法であって、前記撮像装置は、可視光を、第1色成分、第2色成分および第3色成分に分離する分離部と、前記第1色成分および第3色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、前記動画像を構成する各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、前記第2色成分の動画像を撮影する第2撮像部であって、前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、前記第1の撮像部および前記第2の撮像部における撮像条件を制御する制御部とを有しており、前記撮像処理方法は、前記第1色成分の動画像の情報、および、前記第2色成分の動画像の情報に基づいて、時空間解像度を高めた前記第2成分の動画像を生成するステップと、前記第1色成分および前記第3色成分の各動画像の情報、および、時空間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を生成するステップとを包含する。
本発明によるコンピュータプログラムは、画像処理装置に設けられたプロセッサに、撮像装置によって撮影された動画像の情報を処理させるコンピュータプログラムであって、前記撮像装置は、可視光を、第1色成分、第2色成分および第3色成分に分離する分離部と、前記第1色成分および第3色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、前記動画像を構成する各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、前記第2色成分の動画像を撮影する第2撮像部であって、前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、前記第1の撮像部および前記第2の撮像部における撮像条件を制御する制御部とをさらに有しており、前記コンピュータプログラムは、前記プロセッサに、前記第1色成分の動画像の情報、および、前記第2色成分の動画像の情報に基づいて、時空間解像度を高めた前記第2成分の動画像を生成するステップと、前記第1色成分および前記第3色成分の各動画像の情報、および、時空間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を生成するステップとを実行させる。
本発明の撮像処理装置によれば、解像度とフレームレートが異なる複数の色成分の動画像から、解像度とフレームレートがともに高い多色動画像を生成することが可能になる。複数の色成分の動画像の各々は、ハーフミラーなどを用いることなく、たとえばダイクロイックミラーを用いて、入射光を色成分ごとに分離して撮影される。そのため、HDTV以上に高解像度化したカラー画像を動画として得るという効果や、HDTV用のカラーカメラをより小型化できる。
以下、添付の図面を参照しながら、本発明による撮像処理装置の実施形態を説明する。
(実施形態1)
図1は、本実施形態による撮像処理装置1の構成を示す。撮像処理装置1は、レンズ系101と、ダイクロイックミラー102と、第1の撮像部103と、第2の撮像部104と、画像処理部105と、制御部120とを有している。
以下では、まず各構成要素の機能を概説し、その後、撮像処理装置1の動作に関連して各構成要素の動作を詳述する。
レンズ系101は、撮像処理装置1の外部から入射した光、すなわち被写体の像を集束させる。
ダイクロイックミラー102は、光の赤(R)成分および青(B)成分を透過させ、光の緑(G)成分を反射する。すなわちダイクロイックミラー102は、入射した光を、赤(R)成分および青(B)成分と、緑(G)成分とに分離する。なお、以下では、赤成分を「R成分」、緑成分を「G成分」、青成分を「B成分」とも記述する。
第1の撮像部103は、入射光(ここでは光のR成分およびB成分)に基づいて、短時間の露光時間、低解像度および高フレームレートでR成分およびB成分の動画像をそれぞれ撮影する。そして、得られたデータを出力する。なお、R成分の動画像およびB成分の動画像をそれぞれ取得するために、第1の撮像部103は内部にダイクロイックミラーを有し、かつ、R成分およびB成分を検出する撮像素子を備えていてもよい。
第2の撮像部104は、入射光(ここでは光のG成分)に基づいて、長時間の露光時間、高解像度および低フレームレートで動画像を撮影し、G成分の動画像のデータを出力する。
画像処理部105は、R成分およびB成分の光に対応する動画像のデータ、およびG成分の光に対応する動画像のデータを受け取り、それぞれを、画像処理によって高解像度および高フレームレートの動画像に変換して出力する。
画像処理部105は、G用アップコンバータ106およびR,B用アップコンバータ107を備えている。
G用アップコンバータ106は、G成分のフレームレートを高めた高解像度、高フレームレートの動画像のデータを生成する。R,B用アップコンバータ107は、R成分およびB成分の解像度を高め、高解像度、高フレームレートの動画像のデータを生成する。動画像は、1枚または複数枚の画像を所定のフレームレートで連続して切り替えて表示される。R,B用アップコンバータ107による解像度を高める処理は、動画像を構成する各画像の画素数を増加させることを意味する。
G用アップコンバータ106およびR,B用アップコンバータ107の詳細は後述する。
制御部120は、第1の撮像部103および第2の撮像部104を利用して動画像を撮影するときの撮像条件を制御する。そしてその制御情報を、G用アップコンバータ106およびR,B用アップコンバータ107に出力する。
次に、撮像処理装置1の動作とともに各構成要素の動作を詳述する。
レンズ系101は、被写体の像が、第1の撮像部103および第2の104の撮像素子上に結ばれるよう、その位置が調整される。レンズ系101を通った光は、ダイクロイックミラー102によってR成分、G成分、B成分に分離される。
上記R成分およびB成分の動画像は、制御部120から指示された撮像条件、すなわち、短時間露光、低解像度、高フレームレートで、第1の撮像部103によって撮影される。ここで、「低解像度」とは、例えばNTSCの1フレームの画素数(水平720画素×垂直480画素)程度か、もしくは、それ以下のVGA(Video Graphics Array:水平640画素×垂直480画素)程度の画素数の解像度をいう。「高フレームレート」とは、30fps(フレーム/秒)ないし60fps程度をいう。「短時間露光」とは、最長でもフレームレートで決まる上限値(本実施の形態の場合、30分の1秒ないし60分の1秒)以下の時間で露光することをいう。
上記G成分の動画像についても、制御部120から指示された撮像条件、すなわち、長時間露光、高解像度、低フレームレートの撮像条件で、第2の撮影部104によって撮影される。ここで、「高解像度」とは、例えば一般的なデジタルスチルカメラの画素数(例えば水平約4000画素、垂直約3000画素)の解像度をいう。「低フレームレート」とは、第1の撮像部103の数分の1から10分の1ないし20分の1程度のフレームレート(たとえば3fps(フレーム/秒))をいう。「長時間露光」とは、前記低フレームレートの値で決まる時間(たとえば1/3秒)を上限として露出することをいう。
本実施形態においては、第1の撮像部103および第2の撮像部104は、制御部120によって同期制御されて動作する。しかしながら、同期して動作することは必須ではない。
なお、上述した露光時間の長短、解像度の高低、フレームレートの高低は、第1の撮像部103および第2の撮像部104における相対的な撮像条件を意味する。カラー画像のR成分およびB成分の露光時間は、G成分の露光時間よりも短ければよい。R成分およびB成分の解像度(ここでは画素数に対応)はG成分のそれよりも低ければよい。R成分およびB成分のフレームレートはG成分のそれよりも高ければよい。例示した上述の数値範囲に限定されることはない。
以下、本明細書では、解像度が高く(H)フレームレートが低い(L)、Gの色成分の動画像をGHL、解像度が低く(L)フレームレートが高い(H)、RおよびBの色成分の動画像をそれぞれRLH、BLHのように表記する。1文字目が色成分を表し、2文字目(第1の添え字)が解像度を表し、3文字目(第2の添え字)がフレームレートを表す。
G用アップコンバータ106は、長時間露光、高解像度で低フレームレート撮像されたG画像GHL、短時間露光、低解像度で高フレームレート撮像されたR画像およびB画像RLH,BLHのデータを撮像条件として受け取り、GHLを高解像度化しGHHとして出力する。
すなわち、G用アップコンバータ106は、同じ解像度で高フレームレート化した合成動画像を生成する。これは、緑の合成動画像の主観画質が最も良くなるように処理することを意味している。
このように処理する理由は、人の視覚感度は赤、青よりも緑に対して高いという特性を有しており、一般的には緑の合成動画像の主観画質が最も良くなるようにすることが望ましいためである。
緑の合成動画像の主観画質を良くするためには、緑の動画像を高解像度低フレームレートで撮影することが好適な場合が多いと考えられる。例えば、画像中の被写体が静止もしくは動きが小さい場合、緑の動画像を高解像度低フレームレートで撮影すると、赤や青の合成動画像に対して、緑の合成動画像の解像度が高く、その結果主観画質が高くなる。そして、赤や青に比べてさらに緑の動画像のフレームレートを高くすることで、主観画質が良くなることが期待できる。
図2は、G用アップコンバータ106の構成をより詳細に示す。図2において、図1の撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。
G用アップコンバータ106は、動き検出部108および時間解像度アップコンバータ109を有している。
動き検出部108は、ブロックマッチング、勾配法、位相相関法等の既存の公知技術によって、RLH、BLHから動き(オプティカルフロー)を検出する。公知技術として、たとえばJ. L. Barron, D. J. Fleet, S. S. Beauchemin, and T. A. Burkitt. “Performance of Optical Flow Techniques”, In Proc. Computer Vision and Pattern Recognition, pp. 236-242, 1992が知られている。
図3(a)および(b)は、ブロックマッチングによって動き検出を行うときの基準フレームと参照フレームとを示している。動き検出部108は、基準とするフレーム(動きを求めるべく着目している時刻tにおける画像)内に、図3(a)に示す窓領域Aを設定する。そして、窓領域内のパターンと類似するパターンを参照フレーム内で探索する。参照フレームとして、たとえば着目フレームの次のフレームが利用されることが多い。
探索範囲は、図3(b)に示すように、通常、移動量ゼロの位置Bを基準に予め一定の範囲(同図3(b)中のC)が設定される。また、パターンの類似の度合い(程度)は、(数1)に示す残差平飽和(SSD:Sum of Square Differrences)や、(数2)に示す残差絶対値和(SAD:Sum ofAbsoluted Differences)を評価値として計算することによって評価する。
Figure 2009019824
Figure 2009019824
(数1)および(数2)において、x,y∈Wは、基準フレームの窓領域内に含まれる画素の座標値を意味する。
動き検出部108は、探索範囲内で(u,v)を変化させることにより、上記評価値を最小とする(u,v)の組を探索し、これをフレーム間での動きベクトルVとする。窓領域の設定位置を順次シフトさせることによって、動きを画素毎もしくはブロック毎(例えば8画素×8画素)に求める。
再び図2を参照する。時間解像度アップコンバータ109は、第1の撮像部103によって撮像されたR画像RLHおよびB画像BLH、第2の撮影部104によって撮像されたG画像GHL、および、動き検出部108によって検出された動きベクトルVの各データを受け取り、GHLを高解像度化しGHHとして出力する。
ここで、GHLの高解像度化は、下記の(数3)を最小化するGHHを求めることによって行われる。
Figure 2009019824
ここで、GHH、GHLは動画像の各画素を要素とする縦ベクトル、HTは長時間露光による光の加算をモデル化した行列、λsは滑らかさ拘束に対する重み、Qsは滑らかさ拘束、λmは動き拘束に対する重み、Qmは動き拘束、λcは色相関拘束に対する重み、HSは高解像度画像と低解像度画像の関係をモデル化した行列、Qcは色相関拘束を表している。制御部120によって第2の撮像部104に設定される撮影条件は、少なくとも上記HT、Qs、QmおよびQcに反映される。
上記(数3)を最小化するGHHとは、与えられた拘束条件の線形和をもっともよく満足するGHHを意味する。なお、数3の左辺はスカラーである。右辺の各項の導出過程は後述する。
時間解像度アップコンバータ109は、下記(数4)に基づいて(数3)を最小化するGHHを得る。
Figure 2009019824
その結果、時間解像度アップコンバータ109は、(数5)に示す連立方程式を解くことによってGHHを得る。
Figure 2009019824
(数5)は共役勾配法や最急降下法等の既存の数値計算法(連立方程式の解法)を用いることによって解くことができる。
時間解像度アップコンバータ109が、入力されたGHLを上述の手順によって高解像度化しGHHを求める処理は、フレーム数を多くする処理、すなわち時間解像度を高める処理だけでなく、ぼけた画像をくっきりした(シャープな)画像に変換する処理も含んでいる。G成分の動画像は、第2の撮像部104によって高解像度で撮影されているが、長時間露光の影響で画像の一部がぼけていることもありえる。そこで画像のシャープ化処理も含めて「高解像度化」と称している。
以下に、(数3)の各項の意味、働きについてより詳細に説明する。
(数3)の第一項は、高解像度化したGHHから予測される長時間露光画像と、実際に観測した長時間露光画像GHLとの差異を示す。これは、高解像度化したGHHと、長時間露光画像GHLと画像間の時空間的な対応関係を表している。ここで、HTでは行の数が列の数より少ない。これは、GHLが長時間露光画像であって、GHHよりもフレームレートが低い(すなわち、トータルの画素数が少ない)ことからも理解できる。そのため、仮に(数3)の左辺を第一項だけにすると、解くべき問題(すなわち連立方程式)が一意に解けない不良設定問題となる。
この不良設定問題を良設定問題に変更するために、(数3)の第一項には第二項以降が付加されている。(数3)の第二項は、画像が一般的に満たしている特性、すなわち近傍画素間の局所的な滑らかさを示す。動画像をI(x,y,t)とすると、局所的な滑らかさは、
Figure 2009019824
として表すことができる。ここで、積分範囲は動画像の占める時空間全体であり、数6の被積分関数中の||・||はベクトルのノルムを示す。(数3)の第二項は、(数6)を差分展開しIをGに置き換えて、行列QsとベクトルGHHの積の形で表している。
(数3)の第三項は、画像中の動きに関する拘束である。ここでは、動画像中の各点が明るさを変えずに移動していくことを仮定している。第三項中の行列Qmは、動画像中で検出された動きベクトルの始点と終点の画素に関係する要素だけが、それぞれ1と−1になっている。そのため(QmHH2は、動きベクトルの始点と終点間の残差の2乗の動画像全体に関する総和となる。
(数3)の第四項は、R,G,B間の局所的な相関に関する拘束である。(数3)の第二項で局所的な滑らかさを仮定しているのと同様、ここでは、局所的なR,G,Bの画素値の間での相関(色相関)を仮定する。
いま、簡単のために、図4に示す例で考える。図4は、2×2画素のカラー画像を構成するR,G,B画素群を示す。ここでは、R,G,B間で相関があると仮定している。すなわち、各画素におけるR,G,Bの比が一様であると仮定している。すると下記(数7)が成り立つ。
Figure 2009019824
これら各4つの比から2つを選ぶと、その選び方は4C2=6通りであることから、(数8)を得る。
Figure 2009019824
(数8)を行列とベクトルで表すと、(数9)となる。
Figure 2009019824
局所的な領域として2×2画素を考えた場合、RGB間の相関は、(数9)の左辺のノルム(数10)によって評価できる。
Figure 2009019824
ここで、qTqは(数11)によって表すことができる。
Figure 2009019824
次に、2×2画素よりも大きな画像中の局所領域として2×2画素の領域を考える。図5は、大きな画像中の局所領域を構成する画素i、i+1、i+wおよびi+w+1を示す。図5に示すように、局所領域の左上の画素をi番目の画素とすると、右上の画素はi+1番目、左下の画素はi+w番目(ここで、wは画像の幅の画素数)、右下の画素はi+w+1番目の画素となる。そのため、この場合(数11)は(数12)のように変形される。
Figure 2009019824
画像全体についてQc Tcを計算するには、Qc Tcの全要素を0にしたのち、局所領域の左上の画素の位置(すなわちi)を順次シフトさせながら、(数10)で示される局所的な係数を大域的な係数行列Qc Tcに加算してゆけばよい。この時、局所領域の位置を縦横にそれぞれ1画素ずつシフトさせて互いに重なるように配置してもよいし、もしくは、縦横にそれぞれ2画素ずつシフトさせて互いに重ならずに隣接するように配置してもよい。後者の場合には、局所領域境界でアーチファクトが生じる場合がありえるが、より少ない演算量でほぼ同等の効果を得ることができる。
以上述べた手順により、HT、Qs、Qm、Qc Tcを計算することができる。なお、(数3)の第4項に含まれているHSは、GHHを空間的に低解像度化する作用素である。これは、上記の色相関拘束をGHHの中域とRLH,BLHの間で課すために用いられている。
また、各拘束についての重みλs、λm、λcの各値は、生成される画像GHHの画質がよくなるように設定する。たとえば(数3)において、これらのパラメータで重み付けした各項(先頭の項を含む4項)の大きさがオーダーとしてほぼ揃うことが、重みλs、λm、λcの値を設定する際のひとつの目安となる。逆にこれら4項の大きさのオーダーが不揃いであると、値の大きな項が拘束条件として支配的になり、値の小さな項は拘束条件として効いていないことになる。
以上のように計算した行列と重みを用いて、観測される画像GHLに対して(数5)の連立方程式を解くことにより、GHHを生成できる。
なお、(数12)に示した局所的な領域におけるRとBの相関に応じて(数13)の様に重み付けすることにより、RB間の相関に応じて視覚的により自然なGHHを再現することができる。
Figure 2009019824
ここで、重みWの分布としては、局所領域内のRとBの相関値(−1から1)に応じて、0から1の値をとるように設定する。たとえば図6は、RとBの局所的な相関ρと重みWとの関係を示す。図4に示す2×2画素の領域に関して、RとBの局所的な相関値ρは(数14)によって示される。
Figure 2009019824
RとBの局所的な相関値ρが得られると、図6の関係に基づいて重みWが決定される。
なお、局所的なRとBの相関は、必ずしも2×2画素の領域について求める必要はなく、3×3画素、4×4画素、5×5画素等のより広い範囲の矩形領域について求めてもよい。また、円形や4角形以上の多角形等の領域について求めたり、ガウシン関数等により着目画素位置近傍を重視するような重みをつけて計算してもよい。このような計算方法により、画像のパターンに対して、相関値の計算をより等方性のあるものにできる。
なお、本実施の形態においては、色相関に関する拘束QcをR,G,Bのレベルそのものを用いて計算したが、レベルそのものの代わりにR,G,Bのこう配を用いても同様の効果を得ることができる。その様な例について以下に説明する。
動画像中の動きに関しては、対応点間で明るさが一定であると仮定すると、画像中の動きベクトル(u,v)について、オプティカルフローの関係が近似的に成り立つことが知られている。R,G,Bそれぞれについてのオプティカルフローの式は(数15)となる。
Figure 2009019824
ここで、画像中の動きベクトル(u,v)がR,G,B間で同じであるとすると、(数16)を得る。
Figure 2009019824
(数16)において、R,Gは1画素の値について考えている。しかしながら、∂/∂x,∂/∂yは差分展開により行列として表現できるので、R,Gをベクトルとして考えると、動画像全体について(数17)を得る。
Figure 2009019824
画像全体について、(数17)の各式を可能な限り同時に成立させるために、(数18)を最小化するGHHを求める。
Figure 2009019824
(数18)を最小化するGHHを求めるためには、(数18)をGHHで偏微分して得られる式をゼロにするGHHを求めればよい。これにより(数19)を得る。
Figure 2009019824
(数19)と(数3)の第4項との比較より、(数20)を得る。
Figure 2009019824
なお、局所的な相関関係は、ここまでで説明したような空間的な近傍についてのものに限る必要はなく、時間的空間的近傍について考えてももちろんよい。例えば、その一例として図20の様な近傍領域について考えることにより、より安定した効果を得ることができる。図19は、2×2×2画素のカラー画像を構成するR,G,B画素群を示す。ここでは、R,G,B間で相関があると仮定している。すなわち、各画素におけるR,G,Bの比が一様であると仮定している。すると下記(数21)が成り立つ。
Figure 2009019824
これら各8つの比から2つを選ぶと、その選び方は=28通りであることから、(数22)(数23)を得る。
Figure 2009019824
Figure 2009019824
(数22)(数23)を行列とベクトルで表すと、(数24)(数25)となる。
Figure 2009019824
Figure 2009019824
(数24)(数25)より以下の関係を得る。
Figure 2009019824
局所的な領域として2×2×2画素を考えた場合、RGB間の相関は、(数25)の左辺のノルム(数27)によって評価できる。
Figure 2009019824
2×2×2画素よりも大きな画像中の局所領域として2×2×2画素の領域を考える場合には、先に2×2画素の空間的な近傍領域について考えた場合と同様に、局所的な関係を大域的な関係式に順次加算していくことにより、大域的な関係式を得ることができる。
なお、上記2×2×2画素の近傍領域について局所的な相関関係を考えるかわりに、図20に示すように、着目画素と着目画素に時間的、空間的に隣接する3画素の計4画素のみについて局所的な相関関係を考えてもよい。この場合、2×2×2画素の近傍領域について局所的な相関関係を考えるよりも少ない演算量で、ほぼ同様の効果を得ることができる。
さらに、上記の様な形で時間方向の近傍領域について局所的な相関関係を考えるかわりに、オプティカルフローの方向、すなわち、動きベクトルの方向に沿って局所的な相関関係を仮定することにより、オプティカルフロー(動きベクトル場)が正しく求められている場合には、よりいっそう安定した効果を得ることができる。さらに、動きベクトルがサブピクセル精度で得られている場合には、小数点以下の動きベクトルの値を用いた重み付けにより、サブピクセル精度の動き情報を有効に用いることができる。
上述の(数3)に関しては、右辺第1項から第4項までの拘束条件は、必ずしもそれら全てを同時に用いる必要はない。以下のような変形例を用いてもよい。すなわち、(数1)の第1項と第2項のみを利用して
Figure 2009019824
としてもよい。または、(数3)の第1項と第4項のみに基づく(数29)を利用してもよい。
Figure 2009019824
または、(数3)の第1項と第2項と第3項のみに基づく(数30)を利用してもよい。
Figure 2009019824
または、第1項と第2項と第4項のみに基づく(数31)を利用してもよい。
Figure 2009019824
これらの変形例によれば、(数3)に示す4項全ての拘束条件を用いて(数1)によって計算するよりも少ない演算量でG成分の高解像度化を実現できる。ただし、拘束条件を緩和することになるため、生成される画像の高解像度感が多少低下することがある。
また、動き検出が難しいシーンでは、動き検出の結果を用いない数式((数28)、(数29)または(数31))によって高解像度化処理を行うことにより、出力される画像の画質に関して、動きの誤検出によるアーティファクト(画像の乱れ、ノイズ)の発生を抑えることができる。シーンからの動き検出が難しいか否かは、(a)時間的に双方向に動き検出を行った結果の差異から判断したり、(b)(数1)、(数2)に示した動き検出時の評価値の探索範囲内での最小値から判断することができる。
前者(a)の場合、基準フレームの画像中の(x,y)において、時間的に順方向の動き検出結果が(u,v)であるとすると、次に順方向の動き検出時の参照フレームを基準に逆方向に動き検出をして、(x+u,y+v)における動き検出結果が(−u,−v)であれば、双方向の動き検出において一貫性があり信頼できる。一方、(−u,−v)と異なる場合、例えば一定のしきい値以上の差異がある場合には、動き検出が難しい状況であると判断できる。
また、後者(b)の場合も同様に、SSDやSADの動き検出時の評価値の探索範囲内での最小値について、例えば予め定めたしきい値以上である場合、動き検出が難しい状況であると判断できる。
また、色相関のないシーンについては、(数28)や(数30)を用いればよい。(数13)に示す重み付け方法によれば、色相関のないシーンを処理すると重みが小さくなる。よって、その場合には自動的に(数30)を用いていることになる。
再び図1を参照する。R,B用アップコンバータ107は、G用アップコンバータ106によって高解像度化されたG成分の動画像を用いて、第1の撮像部103によって、短時間露光、低解像度、高フレームレートの撮像条件で撮像されたR,B成分の動画像を高解像度化する。
以下、図7を参照しながら、R,B成分の動画像を高解像度化する処理を詳細に説明する。
図7は、R,B用アップコンバータ107の構成をより詳細に示す。図7において、図1の撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。
R,B用アップコンバータ107は、ダウンコンバータ110と、係数推定部111と、復元フィルタ112とを有している。
ダウンコンバータ110は、G用アップコンバータ106によって高解像度化されたG成分(GHH)を空間的に低解像化し、GLHを出力する。係数推定部111は、GHHとGLHから復元フィルタ112(復元フィルタH+)のフィルタ係数を推定する。復元フィルタ112として、ウィーナフィルタや一般逆フィルタ等の公知のフィルタを用いることができる。これらの復元フィルタは、GHHとGLHの関係を用いて、低解像度側の信号から高解像度側の信号を推定するものである。復元フィルタ112は、係数推定部111によって推定されたフィルタ係数を用いて、RLH,BLHからRHH,BHHを復元する。
なお、R,B用アップコンバータ107におけるR,Bの高解像度化処理は、上述の、いわゆる再構成型の処理に限る必要はなく、他の高解像度化処理によって行ってもよい。他の例による高解像度化処理を以下に説明する。
図8は、他の例によるR,B用アップコンバータ107の構成を詳細に示す。ここで、R,B用アップコンバータ107は、RとBの相関に応じてGの高域成分を、補間拡大したR成分およびB成分に重畳することにより、R成分およびB成分を高解像度化する。
図8に示されるR,B用アップコンバータ107は、ダウンコンバータ113と、補間拡大部114と、局所相関演算部115と、重み生成部116と、カウンタ117と、画像メモリ118と、正規化部119とを有している。
R,B用アップコンバータ107は、動画像を構成するフレーム単位で処理を行う。まず、各フレーム処理の初めに、カウンタ117の内容と画像メモリ118の内容を、たとえば0で埋めることにより、クリアする。
低解像度化部113はG用アップコンバータ106によって高解像度化されたG成分(GHH)を空間的に低解像化し、GLHを出力する。
補間拡大部114は、低解像度、高フレームレートで撮像されたRLH,BLHと撮影条件とを受け取り、RLHとBLHとをGHHと同じ画素数になる様に補間拡大する。
局所相関演算部115は、2×2画素や3×3画素程度の局所的な領域に関し、RLHとBLHの局所的な相関値を計算する。2×2画素について局所的な相関値ρを計算するときは、局所相関演算部115は、たとえば(数14)を利用することができる。
重み生成部116は、局所相関演算部115によって計算された相関値に応じた重みを生成する。図9は、相関値ρと重みW2との関係の例を示す。重み生成部116は、相関値ρと図9に示す関係とに基づいて、重みW2を求める。
図8に示されるように、重み生成部116によって生成され、出力された重みと、GHHとGLHの差(すなわちGの高域成分)とが乗算され、画像メモリ118が更新される。より詳しくは、乗算が行われた後、画像メモリ118内の画素データの格納位置に応じたアドレスが特定される。そして、乗算結果とそのアドレスに保持されていた値とが加算され、そのアドレスの値が加算結果に書き換えられる。
このとき、画像メモリ118に書き込みを行う対象は、1画素でもよく、または、局所的な相関値を計算した範囲でもよい。ただし、後者の様に複数画素について高域成分を重畳する場合、局所相関を計算する領域の設定の仕方(すなわち画像内でのインクリメントの仕方)によっては、同一画素に複数回、高域成分を重畳することになる。そのような場合を考慮して、図8のR,B用アップコンバータ107では、カウンタ117を利用する。カウンタ117は、高域成分を重畳した回数を各画素について記憶する。
正規化部119は、複数回重畳した高域成分を、カウンタ117に1画素毎に記憶されている書き込み回数値で除算する。正規化された高域成分は、補間拡大部114によって補間拡大されたR,B画像に重畳され、RHH,BHHとして出力される。
以上述べた方法によって、R,Bを高解像度化することにより、局所的な色バランスを保った状態でRとBとを高解像度化することができ、その結果、偽色の発生を抑えた高解像度化を行うことができる。
なお、図9には相関値と重みの関係の一例として線形な関係の場合を示した。しかしこれは例であり、撮像時や表示時のγ特性を考慮して非線形な関係にしてもよい。また、前記の重みを、Rについては(Rの局所平均)/(Gの局所平均)で正規化し、Bについては(Bの局所平均)/(Gの局所平均)で正規化してもよい。この正規化により、R、G、Bの画素値に応じて、RとB重畳するGの高域成分の振幅を調節することができ、過度な高域の重畳による観察時の違和感を低減できる。ここで、R、G、Bの局所平均としては、補間拡大したRLH、BLHや図8のダウンコンバータ113でGHHをダウンコンバートしたGLHの画素値を用いればよい。
なお、補間拡大したR、B画像に対する高域成分の重畳を1画素につき1回だけ行うように動作させるとすると、図8の画像メモリ118、カウンタ117、正規化部119は不要であり、図10に示す構成を採用することができる。図10は、R,B用アップコンバータ107の構成の変形例を示す。図10に示すように、図8と比較するとより簡単な構成でR,B用アップコンバータ107を実現することができ、かつ、同様の効果を得ることができる。
なお、R,B用アップコンバータ107におけるR,Bの高解像度化処理は、上述したいわゆる再構成型の超解像処理や、Gの高域成分をRおよびB成分に重畳する処理に限る必要はない。高解像度化したG成分とそれを低解像度化したもの(上記GLHとGHH)との間の関係を学習し、学習結果に基づいてR成分、B成分を高解像度化するようにしてもよい。
なお、学習は入力された画像の処理過程において行うものに限らず、予め事前に学習パターンを用意して行うようにしてもよい。この場合には、低解像度のG成分と高解像度のG成分の関係を学習する方法だけでなく、低解像のRGB成分と高解像度のRGB成分の関係を学習することも可能である。
これまでの説明では、出力信号はR,G,Bの各色成分であるとした。以下では、RGBの各出力信号を輝度成分と色差成分に変換して出力する撮像処理装置を説明する。
図11は、本実施形態の変形例による撮像処理装置11の構成を示す。図11において、上述した撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。
画像処理部105は、G用アップコンバータ106、補間拡大部114、およびダウンコンバータ113に加え、さらに色差計算部129および輝度計算部130を有する。
制御部120は、補間拡大部114によって補間拡大されたR成分、B成分の信号、および、低解像度化部113で低解像度化されたG成分の信号を受け取り、(数32)の計算によって色差信号(Cb信号、Cr信号)に変換して出力する。
Figure 2009019824
輝度計算部130は、補間拡大部114によって補間拡大されたR成分、B成分の信号、および、G用アップコンバータで高解像度化されたG成分の信号を受け取り、(数33)の計算によって輝度信号(Y信号)に変換して出力する。
Figure 2009019824
上述の色差計算部129および輝度計算部130の説明から理解されるように、色差成分Cb、Crの計算には低解像度化したGを用い、一方、輝度成分Yの計算には高解像度化されたGを用いている。これにより、偽色の発生を抑えつつ、出力される画像の高解像度化を実現できる。
なお、画像処理部105の後段にY、Cb、Crの各信号をRGBの各信号へ変換するブロックをさらに設けて、RGB成分の信号を出力する構成にしてもよい。
なお、本実施形態による撮像処理装置およびその変形例による撮像処理装置は、G成分を高解像度、長時間露光、低フレームレートで撮像し、R成分およびB成分を低解像度、短時間露光、高フレームレートで撮像するとした。しかしながら、これは例である。どの色成分(波長帯)を高解像度、長時間露光、低フレームレートで撮像するかについては、他の例を採用することが可能である。
たとえば、海やプール等、水中のシーンを撮像する場合の様に、シーン中にB成分が強く現れることが事前に分っている場合には、B成分を高解像度、長時間露光、低フレームレートで撮像し、R成分およびG成分を低解像度、短時間露光、高フレームレートで撮像することにより、観察者により高解像度感のある画像を提示することができる。
たとえば図12は、撮像処理装置1を一般化した撮像処理装置13の構成を示す。図12において、図1の撮像処理装置の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。
撮像処理装置13は、R成分撮像部131と、G成分撮像部132と、B成分撮像部133と、制御部134と、切替部135と、HL用アップコンバータ136と、LH用アップコンバータ137と、出力部138とを有している。以下、撮像処理装置13の動作とともに各構成要素の機能を説明する。
光学系101を通った可視光は、ダイクロイックプリズムで波長分解され、R成分撮像素子131、G成分撮像素子132、B成分撮像素子133によって撮像される。RGB各成分の撮像部131,132,133の読み出し画素数は、ビニング読み出し方法により、個別に、かつ動的に設定できる。「ビニング読み出し方法」とは、隣接する画素に蓄積された電荷を加算して読み出す方法である。また、各撮像部131,132,133では、露光時間、フレームレートについても同様に設定可能とする。読み出し時の条件設定は、制御部134によって行われる。
制御部134は、シーン中の色成分の分布に応じて、R成分撮像素子131、G成分撮像素子132、B成分撮像素子133のうちのいずれかを、高解像度、長時間露光、低フレームレート(実施の形態1におけるGに相当)に設定し、残りを低解像度、短時間露光、高フレームレート(実施の形態1におけるR,Bに相当)に設定する。
なお、撮像開始時にはシーン中の色成分の分布が未知であるので、例えばGを高解像度、長時間露光、低フレームレートに設定する様にすればよい。
切替部135は、制御部によるRGB各成分の撮像部131,132,133の設定に応じて、高解像度、長時間露光、低フレームレートでの撮像が設定されている成分の撮像データがHL用アップコンバータ136に入力され、残りの成分のデータがLH用アップコンバータ137に入力されるように切り替え動作を行う。
HL用アップコンバータ136は、G用アップコンバータ106(たとえば図1)と同じ処理を行い、高解像度、長時間露光、低フレームレートで撮像された成分の動画像を空間的に高解像化する。
LH用アップコンバータ137は、低解像度、短時間露光、高フレームレートで撮像された2系統(2つの色成分)の動画像と、HL用アップコンバータ136で高解像度化された動画像とを受け取り、R,B用アップコンバータ107(たとえば図1)と同じ処理により、その2系統の動画像を空間的に高解像化する。
出力部138は、HL用アップコンバータ136とLH用アップコンバータ137によってそれぞれ高解像度化された動画像を受け取り、制御部134による設定に応じて、RGB3系統の動画を出力する。もちろん、出力部138が輝度信号(Y)および色差信号(Cb,Cr)信号等の、他の信号形式に変換して出力するようにしてもよい。
(実施形態2)
上述の実施形態1においては、撮像処理と高解像度化処理とが同一のシステムによって行われる例を説明した。しかしながら、両処理は必ずしも同一のシステムで行われる必要はない。
本実施形態においては、撮像処理と高解像度化処理とが異なるシステムにおいて行われる例を説明する。
図13は、本実施形態による撮像装置901、ネットワーク902および処理装置903で構成された画像処理システムの例を示す。ネットワーク902に代えて、メディア906を用いても、本実施形態による画像処理システムを構成することができる。図14において、実施形態1の撮像処理装置(たとえば図1)の構成要素と共通する構成要素には同じ参照符号を付し、その説明を省略する。
撮像装置901は、レンズ系101と、ダイクロイックミラー102と、第1の撮像部103と、第2の撮像部104と、撮影モード設定部904とを有している。
第1の撮像部103は、カラー画像のR成分とB成分とを短時間の露光時間で、低解像度かつ高フレームレートで撮像し、R画像RLHおよびB画像BLHを出力する。第2の撮像部104は、カラー画像のG成分を長時間の露光時間で、高解像度かつ低フレームレートで撮像し、G画像GHLを出力する。
撮影モード設定部904は、例えば第2の撮像部104におけるフレームレート、露光時間等の、設定が可変な撮影条件を設定し、設定した条件を示す情報を映像信号のヘッダ中のコメント領域に書き込み、または、別途データとして出力部905を介してネットワーク902に出力する。
出力部905は、撮像装置901によって撮像されたG画像GHL、R画像RLH、B画像BLH、および、それらの撮影条件の情報をネットワーク902またはメディア906に出力する。
処理装置903は、画像処理部105を有している。画像処理部105は、ネットワーク902またはメディア906を介して、上記GHL、RLH、BLHおよびその撮影条件の情報を受け取り、実施形態1において説明した処理により、これらを空間的、時間的に高解像度化したGHH、RHH、BHHを出力する。
以上の構成により、撮像装置と処理装置とが別体で構成され、空間的に離れて存在していても、ネットワーク902またはメディア906を介して動画像信号および撮影条件の情報を授受できるように構成することにより、処理装置が高時空間解像度の動画像を出力できる。
なお、ネットワーク902は家庭内に構築されたLAN(Local Area Network)でもよいし、インターネットなどのWAN(Wide Area Network)でもよい。または、USB規格やIEEE1394規格の通信回線でもよい。さらに無線でも有線でもよい。上述のメディア906は、光ディスクや取り外し可能なハードディスクなどのリムーバブルディスク、フラッシュメモリカードが含まれる。
上述の各実施形態では、撮像処理装置は、図に示す種々の構成を有するとして説明した。たとえば、各構成に含まれる画像処理部などは、機能的に見たブロックとして記載されていた。これらの機能ブロックは、ハードウェア的には、デジタル信号プロセッサ(DSP)のような1つの半導体チップまたはICによって実現することも可能であるし、たとえばコンピュータとソフトウェア(コンピュータプログラム)とを用いて実現することもできる。
たとえば、図14は、コンピュータによって構成された画像処理装置のハードウェアを示す。
各実施形態の画像処理装置の各機能ブロックと、図15に示すハードウェアとの対応関係は以下のとおりである。以下では例として、主に図1に示す画像処理装置1を挙げて説明する。
撮像処理装置1のレンズ系101、ダイクロイックミラー102、第1の撮像部103および第2の撮像部104は、図15に示すカメラ151およびA/D変換器152に対応する。また、画像処理部105が実際の処理で利用する一時バッファ(図示せず)やメディア906は、図15に示すフレームメモリ153またはハードディスクドライブ(HDD)160に対応する。そして制御部120および画像処理部105は、コンピュータプログラムを実行した図15のCPU154によって実現される。
図14のコンピュータを動作させるコンピュータプログラムは、たとえばROM155に保持されている。または、光ディスク、磁気ディスクに格納されていてもよい。また、有線や無線のネットワーク、放送などを介して伝送され、コンピュータのRAM156に取り込まれてもよい。
コンピュータプログラムは、プロセッサであるCPU154によってRAM156に読み出されて展開される。CPU154はコンピュータプログラムの実態であるコード化された各命令を実行する。命令の実行結果として得られたデジタル画像信号は、フレームメモリ157に送られて一時的に保持され、D/A変換器158によってアナログ信号に変換され、ディスプレイ159に送られ、表示される。
画像処理部105を実現するコンピュータプログラムの処理は、たとえば次に説明するフローチャートにしたがって記述されている。
たとえば図15は、本発明の処理の手順を示すフローチャートである。この処理は、実施形態1による処理として説明するが、実施形態2の撮像装置901および処理装置903によって個別に行われる処理として把握することもできる。
まずS101において、第1の撮像部103および第2の撮像部104は、長時間露光高解像度低フレームレートのG画像GHLと短時間露光低解像度高フレームレートのR画像RLH、B画像BLHとを撮像する。ステップS102において、画像処理部105のG用アップコンバータ106は、G成分の動画像を高解像度化する。より具体的には、ステップS104とS105とに分けることができる。ステップS104において、G用アップコンバータ106の動き検出部108は、動き検出を行う。ステップS105において、時間解像度アップコンバータ109は、動き検出の結果等を利用して、(数4)に基づいて(数3)を最小化するGHHを求める。
次のステップS103において、R,B用アップコンバータ107は、R成分およびB成分の各動画像を高解像度化する。その後、制御部120は、撮像が完了したか否かを判定し、完了していないと判定すると処理はステップS101から繰り返され、完了したと判定すると処理は終了する。
図16は、図15に示すステップS103の詳細な処理の手順を示すフローチャートである。この処理は、図7に示すR,B用アップコンバータ107の処理に対応する。
図16のステップS106において、ダウンコンバータ110は、撮像条件に基づいてGHHを低解像度化する。ステップS107において、係数推定部111は復元フィルタ112に適用するための係数を推定する。ステップS108において、推定された係数が復元フィルタ112に適用され、復元フィルタ112は、RLHおよびBLHを高解像度化し、RHHおよびBHHを出力する。
図17は、他の例によるステップS103の詳細な処理の手順を示すフローチャートである。この処理は、図8に示すR,B用アップコンバータ107の処理に対応する。
ステップS109において、ダウンコンバータ113は、撮像条件に基づいてGHHを低解像度化する。ステップS110において、GHHからGLHが減算される。
一方、ステップS111において、補間拡大部114が撮像条件に基づいてRLHおよびBLHを補間拡大すると、その信号に基づいて、ステップS112において局所相関演算部115が局所的な相関値を計算する。
そしてステップS113において、重み生成部116が重みを生成すると、ステップS114においてカウンタ117が高域成分を重畳した回数を各画素について記憶する。ステップS115において、重み生成部116によって生成され、出力された重みと、GHHとGLHの差(すなわちGの高域成分)とが乗算され、ステップS116において画像メモリ118が更新される。
ステップS117において、正規化部119は、画像メモリ118に保持された、複数回重畳した高域成分を、カウンタ117に1画素毎に記憶されている書き込み回数値で除算して、正規化する。
そしてステップS118において、正規化された高域成分は、補間拡大部114によって補間拡大されたR,B画像に重畳され、RHH,BHHとして出力される。
以上、本発明の各実施形態を説明した。実施形態1および2においては、R,G,Bの3成分をダイクロイックミラーで分離する場合について説明したが、色成分の分離の形態はこれに限るものではない。たとえば単一の素子で深さ方向に、順に、R+G+B、R+G、Rと3層に分けて撮像する撮像素子を用いても、R+GもしくはR+G+Bを高解像度、長時間露光、低フレームレートで撮像し、その他を低解像度、短時間、低フレームレートで撮像した画像を受け取って処理することで、同様の効果を得ることができる。
本発明の撮像装置および処理装置は、撮像素子サイズを小型化したカメラによる高精細画像の撮像とその再生装置、システムとして有用である。また、コンピュータプログラムとしても実現することが可能である。
実施形態1による撮像処理装置1の構成を示す図である。 G用アップコンバータ106の構成をより詳細に示す図である。 (a)および(b)は、ブロックマッチングによって動き検出を行うときの基準フレームと参照フレームとを示す図である。 2×2画素のカラー画像を構成するR,G,B画素群を示す図である。 大きな画像中の局所領域を構成する画素i、i+1、i+wおよびi+w+1を示す図である。 RとBの局所的な相関ρと重みWとの関係を示す図である。 R,B用アップコンバータ107の構成をより詳細に示す図である。 他の例によるR,B用アップコンバータ107の構成を詳細に示す図である。 相関値ρと重みW2との関係の例を示す図である。 R,B用アップコンバータ107の構成の変形例を示す図である。 実施形態1の変形例による撮像処理装置11の構成を示す図である。 撮像処理装置1を一般化した撮像処理装置13の構成を示す図である。 実施形態2による撮像装置901、ネットワーク902および処理装置903で構成された画像処理システムの例を示す図である。 コンピュータによって構成された画像処理装置のハードウェアを示す図である。 本発明の処理の手順を示すフローチャートである。 図15に示すステップS103の詳細な処理の手順を示すフローチャートである。 他の例によるステップS103の詳細な処理の手順を示すフローチャートである。 従来の撮像装置の構成を示す図である。 2×2×2画素のカラー画像を構成するR,G,B画素群を示す図である。 着目画素とその近傍3画素のカラー画像を構成するR,G,B画素群を示す図である。
101 レンズ系
102 ダイクロイックミラー
103 第1の撮像部
104 第2の撮像部
105 画像処理部
106 G用アップコンバータ
107 R,B用アップコンバータ
120 制御部

Claims (13)

  1. 可視光を、第1色成分、第2色成分および第3色成分に分離する分離部と、
    前記第1色成分および第3色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、前記動画像を構成する各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、
    前記第2色成分の動画像を撮影する第2撮像部であって、前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、
    前記第1の撮像部および前記第2の撮像部における撮像条件を制御する制御部と、
    前記第1色成分の動画像の情報、および、前記第2色成分の動画像の情報に基づいて、時空間解像度を高めた前記第2成分の動画像を生成する第1アップコンバータと、
    前記第1色成分および前記第3色成分の各動画像の情報、および、時空間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を生成する第2アップコンバータと
    を備えた撮像処理装置。
  2. 前記第2アップコンバータは、
    時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータと、
    空間解像度を低下させた前記第2成分の動画像および時空間解像度を高めた前記第2成分の動画像の関係に基づいて、解像度が低い動画像から解像度が高い動画像を生成するための復元フィルタの係数を推定する係数推定部と、
    推定された前記係数を利用して、前記第1色成分および前記第3色成分の動画像の空間解像度を高めて出力する復元フィルタと
    を備えた、請求項1に記載の撮像処理装置。
  3. 前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータを備えており、
    前記第2アップコンバータは、前記ダウンコンバータによって空間解像度を低下させた前記第2成分の動画像および時空間解像度を高めた前記第2成分の動画像の関係を学習して、学習結果に基づいて、前記第1色成分および前記第3色成分の動画像の空間解像度を高めて出力する、請求項1に記載の撮像処理装置。
  4. 前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータを備えており、
    前記第2アップコンバータは、予め定められた、前記ダウンコンバータによって空間解像度を低下させた前記第2成分の動画像および時空間解像度を高めた前記第2成分の動画像の関係に関する学習パターンに基づいて、前記第1色成分および前記第3色成分の動画像の空間解像度を高めて出力する、請求項1に記載の撮像処理装置。
  5. 前記第2アップコンバータは、
    時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータと、
    前記第1色成分および前記第3色成分の動画像を空間的に補間拡大する補間拡大部と、
    補間拡大された前記第1色成分および前記第3色成分の動画像の局所的な相関を示す相関値を演算する相関演算部と
    を備えており、時空間解像度を高めた前記第2成分の動画像の広域成分、および、前記相関値に基づいて、前記第1色成分および前記第3色成分の動画像に対応する広域成分を生成し、補間拡大された前記第1色成分および前記第3色成分の動画像に重畳して、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を出力する、請求項1に記載の撮像処理装置。
  6. 前記第2アップコンバータは、前記ダウンコンバータによって空間解像度を低下させた前記第2成分の動画像と時空間解像度を高めた前記第2成分の動画像との差を演算して、時空間解像度を高めた前記第2成分の動画像の広域成分を生成する、請求項5に記載の撮像処理装置。
  7. 前記第2アップコンバータは、時空間解像度を高めた前記第2成分の動画像の広域成分と前記相関値とを乗算することにより、前記第1色成分および前記第3色成分の動画像に対応する広域成分を生成する、請求項6に記載の撮像処理装置。
  8. 前記第2アップコンバータは、前記第1色成分および前記第3色成分の動画像の各フレームを空間的に補間拡大する補間拡大部を有する、請求項1に記載の撮像処理装置。
  9. 前記第2アップコンバータは、
    時空間解像度を高めた前記第2成分の動画像を空間的に低解像度化するダウンコンバータと、
    前記第1色成分および前記第3色成分の動画像を空間的に補間拡大する補間拡大部と、
    時空間解像度を高めた前記第2成分の動画像、および、補間拡大された前記第1色成分および前記第3色成分の動画像に基づいて、輝度成分を計算する輝度計算部と、
    空間的に低解像度化された前記第2成分の動画像、および、補間拡大された前記第1色成分および前記第3色成分の動画像に基づいて、色差成分を計算する色差計算部と
    を生成する、請求項1に記載の撮像処理装置。
  10. 前記第2色成分は緑である、請求項1に記載の撮像処理装置。
  11. 前記第2色成分は、赤、緑および青のいずれかから選択可能である、請求項1に記載の撮像処理装置。
  12. 撮像装置によって撮影された動画像の情報を処理する画像処理方法であって、
    前記撮像装置は、
    可視光を、第1色成分、第2色成分および第3色成分に分離する分離部と、
    前記第1色成分および第3色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、前記動画像を構成する各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、
    前記第2色成分の動画像を撮影する第2撮像部であって、前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、
    前記第1の撮像部および前記第2の撮像部における撮像条件を制御する制御部と
    を有しており、
    前記第1色成分の動画像の情報、および、前記第2色成分の動画像の情報に基づいて、時空間解像度を高めた前記第2成分の動画像を生成するステップと、
    前記第1色成分および前記第3色成分の各動画像の情報、および、時空間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を生成するステップと
    を包含する画像処理方法。
  13. 画像処理装置に設けられたプロセッサに、撮像装置によって撮影された動画像の情報を処理させるコンピュータプログラムであって、
    前記撮像装置は、
    可視光を、第1色成分、第2色成分および第3色成分に分離する分離部と、
    前記第1色成分および第3色成分の動画像を撮影する第1撮像部であって、第1電荷蓄積期間で露光して、前記動画像を構成する各画像を第1空間解像度で、かつ、第1時間解像度で撮影する第1撮像部と、
    前記第2色成分の動画像を撮影する第2撮像部であって、前記第1電荷蓄積期間よりも長い第2電荷蓄積期間で露光して、前記動画像を構成する各画像を前記第1空間解像度よりも高い第2空間解像度で、かつ、前記第1時間解像度よりも低い第2時間解像度で撮影する第2撮像部と、
    前記第1の撮像部および前記第2の撮像部における撮像条件を制御する制御部と
    を有しており、
    前記コンピュータプログラムは、前記プロセッサに、
    前記第1色成分の動画像の情報、および、前記第2色成分の動画像の情報に基づいて、時空間解像度を高めた前記第2成分の動画像を生成するステップと、
    前記第1色成分および前記第3色成分の各動画像の情報、および、時空間解像度を高めた前記第2成分の動画像の情報に基づいて、空間解像度を高めた前記第1色成分および前記第3色成分の動画像を生成するステップと
    を実行させる、コンピュータプログラム。
JP2009502747A 2007-08-07 2008-07-25 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム Active JP4317587B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007205836 2007-08-07
JP2007205836 2007-08-07
PCT/JP2008/001998 WO2009019824A1 (ja) 2007-08-07 2008-07-25 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP4317587B2 JP4317587B2 (ja) 2009-08-19
JPWO2009019824A1 true JPWO2009019824A1 (ja) 2010-10-28

Family

ID=40341069

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009502747A Active JP4317587B2 (ja) 2007-08-07 2008-07-25 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム

Country Status (5)

Country Link
US (1) US8018500B2 (ja)
EP (1) EP2088788B1 (ja)
JP (1) JP4317587B2 (ja)
CN (1) CN101578886B (ja)
WO (1) WO2009019824A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2334085B1 (en) 2009-02-05 2019-10-02 Panasonic Intellectual Property Management Co., Ltd. Imaging processor
CN102986228B (zh) 2010-07-02 2015-08-12 松下电器产业株式会社 固体摄像元件、具备该固体摄像元件的摄像装置、以及摄像控制方法
EP2592838B1 (en) 2010-07-08 2015-12-16 Panasonic Intellectual Property Management Co., Ltd. Image capture device
WO2012081154A1 (ja) 2010-12-16 2012-06-21 パナソニック株式会社 撮像装置及び画像処理装置
JP5128726B1 (ja) 2011-03-24 2013-01-23 パナソニック株式会社 固体撮像素子および当該素子を備える撮像装置
JP2013066140A (ja) * 2011-08-31 2013-04-11 Sony Corp 撮像装置、および信号処理方法、並びにプログラム
US9053557B2 (en) 2011-12-02 2015-06-09 Industrial Technology Research Institute System and method for improving visual effect of a display device
JP2013183353A (ja) * 2012-03-02 2013-09-12 Toshiba Corp 画像処理装置
KR20150118213A (ko) * 2014-04-11 2015-10-22 에스케이하이닉스 주식회사 이미지 센싱 장치
EP3424403B1 (en) * 2016-03-03 2024-04-24 Sony Group Corporation Medical image processing device, system, method, and program
CN110114803B (zh) * 2016-12-28 2023-06-27 松下电器(美国)知识产权公司 三维模型分发方法、三维模型接收方法、三维模型分发装置以及三维模型接收装置
US10489897B2 (en) * 2017-05-01 2019-11-26 Gopro, Inc. Apparatus and methods for artifact detection and removal using frame interpolation techniques
CN109389552B (zh) * 2017-08-02 2023-03-28 中山大学 一种基于上下文相关多任务深度学习的图像超分辨算法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2227900A (en) * 1989-02-03 1990-08-08 Philips Nv Datv encoding and decoding
JPH05219513A (ja) * 1992-01-27 1993-08-27 Ikegami Tsushinki Co Ltd 固体撮像装置
JP3648638B2 (ja) 1993-04-28 2005-05-18 日本電信電話株式会社 カラー撮像装置
JP3240339B2 (ja) 1993-11-16 2001-12-17 コニカ株式会社 画像撮影装置及び画像処理装置
JPH07203318A (ja) * 1993-12-28 1995-08-04 Nippon Telegr & Teleph Corp <Ntt> 撮像装置
US5640206A (en) * 1994-05-31 1997-06-17 Victor Company Of Japan, Ltd. Imaging apparatus including offset pixels for generating vertical high frequency component
US6611289B1 (en) * 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
JP3980799B2 (ja) * 1999-08-19 2007-09-26 株式会社リコー 自動合焦装置およびその合焦方法
US7428019B2 (en) * 2001-12-26 2008-09-23 Yeda Research And Development Co. Ltd. System and method for increasing space or time resolution in video
JP3673845B2 (ja) * 2002-11-19 2005-07-20 コニカミノルタホールディングス株式会社 撮像装置
US20050219642A1 (en) * 2004-03-30 2005-10-06 Masahiko Yachida Imaging system, image data stream creation apparatus, image generation apparatus, image data stream generation apparatus, and image data stream generation system
JP4453976B2 (ja) 2004-03-30 2010-04-21 正彦 谷内田 画像生成装置、画像データ列生成システム、及び画像伝送システム
US7319216B2 (en) * 2004-09-10 2008-01-15 Fujifilm Corporation Light receiving unit and image taking apparatus
JP3934151B2 (ja) * 2005-06-22 2007-06-20 松下電器産業株式会社 画像生成装置および画像生成方法
CN100387063C (zh) * 2005-12-01 2008-05-07 西安交通大学 可伸缩视频编码中的三维码率控制方法
WO2009019808A1 (ja) * 2007-08-03 2009-02-12 Panasonic Corporation 画像データを生成する装置、方法およびプログラム
CN101601306B (zh) * 2007-09-07 2011-05-18 松下电器产业株式会社 多色图像处理装置以及信号处理装置
US8218068B2 (en) * 2009-04-01 2012-07-10 Omnivision Technologies, Inc. Exposing pixel groups in producing digital images

Also Published As

Publication number Publication date
EP2088788B1 (en) 2014-11-05
CN101578886B (zh) 2011-11-23
WO2009019824A1 (ja) 2009-02-12
EP2088788A4 (en) 2011-12-21
EP2088788A1 (en) 2009-08-12
US20100315534A1 (en) 2010-12-16
JP4317587B2 (ja) 2009-08-19
CN101578886A (zh) 2009-11-11
US8018500B2 (en) 2011-09-13

Similar Documents

Publication Publication Date Title
JP4317586B2 (ja) 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム
JP4317587B2 (ja) 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム
US7903156B2 (en) Image processing device, image processing method, computer program, recording medium storing the computer program, frame-to-frame motion computing method, and image processing method
US8698906B2 (en) Image processing device, imaging device, information storage medium, and image processing method
US8078010B2 (en) Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
US7825968B2 (en) Multi-color image processing apparatus and signal processing apparatus
US9210341B2 (en) Image processing device, imaging device, information storage medium, and image processing method
US20150062387A1 (en) Tone Mapping For Low-Light Video Frame Enhancement
US8243160B2 (en) Imaging processor
JP5002738B2 (ja) 画像生成装置
US20150334283A1 (en) Tone Mapping For Low-Light Video Frame Enhancement
US20130083220A1 (en) Image processing device, imaging device, information storage device, and image processing method
US8982248B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
WO2012081175A1 (ja) 画像生成装置、画像生成システム、方法、およびプログラム
US7868925B2 (en) Device, method, and program for generating high-resolution image data at a low data transfer rate
JP2011015228A (ja) 画像処理装置、撮像処理装置、画像処理方法、および、画像処理装置の制御プログラム
JP4246244B2 (ja) 撮像装置
Kim et al. Color interpolation algorithm for the Sony-RGBW color filter array
JP2013223211A (ja) 撮像処理装置、撮像処理方法、およびプログラム
JP2013223210A (ja) 撮像処理装置、撮像処理方法、およびプログラム

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090428

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090522

R150 Certificate of patent or registration of utility model

Ref document number: 4317587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4