JP2008244846A - フレーム補間装置及びその方法 - Google Patents

フレーム補間装置及びその方法 Download PDF

Info

Publication number
JP2008244846A
JP2008244846A JP2007082613A JP2007082613A JP2008244846A JP 2008244846 A JP2008244846 A JP 2008244846A JP 2007082613 A JP2007082613 A JP 2007082613A JP 2007082613 A JP2007082613 A JP 2007082613A JP 2008244846 A JP2008244846 A JP 2008244846A
Authority
JP
Japan
Prior art keywords
image
region
target
interpolation
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007082613A
Other languages
English (en)
Inventor
Sunao Mishima
直 三島
Yasutoyo Takeyama
泰豊 武山
Takeshi Ito
伊藤  剛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2007082613A priority Critical patent/JP2008244846A/ja
Priority to EP20080004561 priority patent/EP1978737A2/en
Priority to CNA2008100872796A priority patent/CN101277419A/zh
Priority to US12/056,085 priority patent/US20080240241A1/en
Publication of JP2008244846A publication Critical patent/JP2008244846A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter

Abstract

【課題】動画像のフレーム間に補間フレームを内挿し動画を滑らかにするフレーム補間装置10を提供する。
【解決手段】フレーム補間装置10は、動き推定部12、歪みエネルギー計算部14、破綻防止画像生成部16、アルファマップ生成部18、動き補償ワーピング部20、アルファブレンディング部22から構成される。入力された画像と推定されたフローに基づき、フローの信頼度を局所的に計算する。この信頼度をフローに従い補間フレームの時間位置にワーピングし0−1のアルファ値に変換しアルファマップを生成する。このアルファ値により動き補償画像と破綻防止画像をアルファブレンドすることにより局所的な画質劣化にも対応できる。
【選択図】 図1

Description

入力された動画像のフレーム間に補間画像(補間フレーム)を内挿し動画を滑らかにするフレーム補間装置及びその方法に関する。
特許文献1において、符号化された動画像をデコードする際に、フレーム内のフロー(動きベクトル)の分散、方向、DCT係数などにより補間フレームを内挿する/しないを制御する技術が開示されている。
特開2005−6275公報
上記背景技術では画面全体の統計量により、補間フレームを内挿する/しないを制御するため、画面内の局所的な画質劣化に対応することが難しい。
また、画面全体を内挿する/しないと切り替えるため、切り替えが頻繁に起こるとフリッカーとして視認されてしまい新たな画質劣化を生んでしまう。
そこで本発明は、動画像のフレーム間に補間フレームを内挿し動画を滑らかにするフレーム補間装置及びその方法を提供する。
本発明は、対象画像と参照画像との間に補間画像を内挿するフレーム補間装置において、前記対象画像内を分割したそれぞれの対象領域について、前記各対象領域から前記参照画像の各参照領域へのそれぞれの第1動きベクトル、前記各第1動きベクトルを前記対象画像と前記補間画像との第1時間距離に応じてスケーリングした各第2動きベクトル、及び、前記各第1動きベクトルを前記参照画像と前記補間画像との第2時間距離に応じてスケーリングした各第3動きベクトルを求める動き推定部と、前記対象領域の各画素の画素値と前記参照領域の各画素の画素値との差分が小さい程に小さくなる歪みエネルギーを、前記対象領域毎にそれぞれ求める歪みエネルギー計算部と、前記各対象領域から前記第2動きベクトルによって指し示される前記補間画像内の各第1補間領域の第1加重平均用の重みを、前記各対象領域の歪みエネルギーから求める重み計算部と、前記各対象領域の画像を前記各第2動きベクトルを用いて前記補間画像の時間位置に動き補償した第1動き補償画像と、前記各参照領域の画像を前記第3動きベクトルを用いて前記補間画像の時間位置に動き補償した第2動き補償画像との、前記第1及び第2時間距離に応じた第2加重平均により第3動き補償画像を求める動き補償画像生成部と、(1)前記対象画像、(2)前記参照画像、または、(3)前記対象画像と前記参照画像との前記第1及び前記第2時間距離に応じた第3加重平均によって求められた時間加重平均画像、のいずれかを破綻防止画像として取得する破綻防止画像取得部と、前記補間画像を分割した各第2補間領域に対応する前記動き補償画像内の領域の画像と、前記各第2補間領域に対応する前記破綻防止画像内の領域の画像との、前記重みに基づく前記第1加重平均を求めることにより前記各補間領域の画像を求める画像補間部、を有するフレーム補間装置である。
また、本発明は、対象画像と参照画像との間に補間画像を内挿するフレーム補間装置において、前記対象画像内を分割したそれぞれの対象領域について、前記各対象領域から前記参照画像の各参照領域へのそれぞれの第1動きベクトル、前記各第1動きベクトルを前記対象画像と前記補間画像との第1時間距離に応じてスケーリングした各第2動きベクトル、及び、前記各第1動きベクトルを前記参照画像と前記補間画像との第2時間距離に応じてスケーリングした各第3動きベクトルを求める動き推定部と、前記対象領域の各画素の画素値と前記参照領域の各画素の画素値との差分が小さい程に小さくなる歪みエネルギーを、前記対象領域毎にそれぞれ求める歪みエネルギー計算部と、前記各対象領域から前記第2動きベクトルによって指し示される前記補間画像内の各第1補間領域の第1加重平均用の重みを、前記各対象領域の歪みエネルギーから求める重み計算部と、前記各対象領域の画像を前記各第2動きベクトルを用いて前記補間画像の時間位置に動き補償した第1動き補償画像と、前記各参照領域の画像を前記第3動きベクトルを用いて前記補間画像の時間位置に動き補償した第2動き補償画像との、前記第1及び第2時間距離に応じた第2加重平均により第3動き補償画像を求める動き補償画像生成部と、前記対象画像を前記参照画像に幾何変換するための前記対象画像のベクトル抽出領域毎のグローバルモーションベクトルを求め、前記ベクトル抽出領域毎のグローバルモーションベクトルに基づいて破綻防止画像を取得する破綻防止画像取得部と、前記補間画像を分割した各第2補間領域に対応する前記動き補償画像内の領域の画像と、前記各第2補間領域に対応する前記破綻防止画像内の領域の画像との、前記重みに基づく前記第1加重平均を求めることにより前記各補間領域の画像を求める画像補間部、を有するフレーム補間装置である。
本発明によれば、動画像のフレーム間に補間フレームを内挿し、動画が滑らかになる。
以下、図面に基づいて本発明の実施形態のフレーム補間装置10を説明する。
(実施形態1)
本発明の実施形態1のフレーム補間装置10について、図1から図7に基づいて説明する。
本実施形態のフレーム補間装置10は、動画像が入力されたときに、対象となるフレームとフレームの間に補間フレームを内挿し単位時間当たりのフレーム数を増加させて動画を滑らかにするものである。このとき、動画の解像度、大きさ、フレームレート、補間フレーム数にかかわらず本実施形態は適用可能である。
従来、フレーム間の動き推定によりフレーム間の動きベクトル(フロー)を求め、それに基づき動き補償を行い補間フレームを生成する方法が一般的であるが、フローの推定が誤った場合に画質劣化が発生するという問題があった。特許文献1では、フレーム全体のフローの分散などを見ることによりフレーム全体のフローの信頼度を推定し、それにより信頼度が低い場合には補間をしないという方法が開示されている。これにより信頼度が低い場合に画質劣化を抑えることができる。
しかし、特許文献1の技術はフレーム全体を対象としており、フレーム内の局所的な劣化には対応が困難である。そこで本実施形態では、フレーム内の局所的な劣化にも対応できるフレーム補間装置10を提供する。
(1)フレーム補間装置10の概要
本実施形態のフレーム補間装置10を、図1のブロック図に従い説明する。
フレーム補間装置10は、対象画像Isrc、参照画像Idstが入力されたときに、その間にピクセルレベルで補間フレームを生成する。
フレーム補間装置10は、動き推定部12、歪みエネルギー計算部14、破綻防止画像生成部16、アルファマップ生成部18、動き補償ワーピング部20、アルファブレンディング部22から構成される。
各部12〜22の機能は、コンピュータに格納されたプログラムによっても実現できる。
フレーム補間装置10は、図2に示すように、入力された画像と推定されたフローに基づき、フローの信頼度を局所的に計算する。この信頼度をフローに従い補間フレームの時間位置にワーピングし0−1のアルファ値に変換しアルファマップを生成する。このアルファ値により動き補償画像と破綻防止画像をアルファブレンドすることにより局所的な画質劣化にも対応できる。
(2)動き推定部12
動き推定部12におけるフロー推定方法は、一般に、ブロックマッチング法、オプティカルフロー法、Pel−recursive法、ベイジアン法などがあるが、ここではブロックマッチング法によって求める方法を示す。しかしそれに限ったものではなく、オプティカルフロー法、Pel−recursive法、ベイジアン法などを用いても良い。
まず、対象画像を以下のような予め設定された矩形領域のブロックに分割する。

B(i)={i+(x,y)|0=<x<M,0=<y<M

ここで点i∈Xはブロックの左上の点、M、Mはブロックのxサイズ、yサイズである。なお、X⊂Λはフレームである。
動き探索の領域をW⊂Xとすると、差分二乗和基準(SSD:Sum of Squared Difference)に従ったブロックマッチングアルゴリズムは以下のようになる。
Figure 2008244846
ブロックマッチングではブロック内は同一のフローを持つと仮定される。つまり各画素のフローは
Figure 2008244846
と表せる。
(3)歪みエネルギー計算部14
次に、歪みエネルギー計算部14について、図3のフローチャートに基づいて説明する。歪みエネルギー計算部14は、ピクセル単位で歪みエネルギーを計算する。
(3−1)第1の歪みエネルギー
動きに沿ってフレーム間で輝度が一定であると仮定すると、

dst(x+u(x))=Isrc(x)

が成り立つ。つまり残差

dpt(x)=Idst(x+u(x))−Isrc(x)

が小さいほどフローの信頼度が高いと考えることができる。よって残差の歪みエネルギー

D(x)=dpt(x)

により信頼度を定義することができる。
但し、一点(すなわち、1ピクセル)のみではノイズの影響を直接うけてしまい信頼度の信頼性が高くない。そこで周辺の残差を畳み込んだ
Figure 2008244846
を第1の歪みエネルギーとし、これが小さいものほど信頼度が高いとする。ここでN(x)⊂Xは点xの近傍点の集合である。すなわち、自点を含めた近傍9点や25点などである。
(3−2)第2の歪みエネルギー
また、この第1の歪みエネルギー(残差エネルギー)が仮に小さくても、周辺フローが空間的にバラバラだと補間フレームは局所的に劣化している可能性が高い。そこで周辺フローの平滑化エネルギーを考える。

V(x,s)=||u(x+s)−u(x)||

このエネルギーは互いのフローが近いベクトルを持つほど低いエネルギーとなる。つまり平滑化エネルギーが低いほど空間的には滑らかであり、そのフローは信頼できる。
(3−3)拡張された歪みエネルギー
先ほどの第1の歪みエネルギー(残差エネルギー)を第2の歪みエネルギー(平滑化エネルギー)を考慮して以下のように拡張する。
Figure 2008244846
ここでλ>=0は残差か平滑化かどちらを重視するかのハイパーパラメータである。このエネルギーにより残差が小さく空間的に滑らかなフローが信頼性が高いと判定されるようになる。
なお、これらはl2ノルムで定義されたが、l1ノルムつまり絶対値でも構わない。

D(x)=|dpt(x)|

V(x,s)=|u(x+s)−u(x)|+|v(x+s)−v(x)|

ここでu,vはベクトルuのx座標、y座標である。すなわち、

(u(x)=(u(x),v(x)
である。
(3−4)重み付けする場合
また、上記畳み込みは、周辺が動きに属する点で構成されている場合には問題ないが、そうではなく動きの境界を含む場合には歪みを発生させる。そこで以下のように画像の類似度により重み付けをしても良い。
Figure 2008244846
第2式、右辺第1項が空間カーネルで空間にガウシアンの重み付けをしている。すなわち、中心ほど重みが大きい。右辺第2項が画素の類似度カーネルで、画素が近い点ほど大きな重みが設定されるようになっている。これにより、画素的に類似な領域だけ畳み込まれるため、動きの境界と画像の境界が重なっている限り、異なる動き領域を畳み込んでしまうことを防ぐことができる。
(4)破綻防止画像生成部16
次に、破綻防止画像生成部16について図4のフローチャートに基づいて説明する。
破綻防止画像生成部16は、信頼できないフロー領域の代わりに内挿するフレーム情報として破綻防止画像を用いる。
この破綻防止画像となるフレーム情報としては、隣接フレームの時間加重平均画像を用いることができる。補間フレームの内挿時間位置を0=<t=<1とすると

(x)=(1−t)Isrc(x)+tIdst(x)

と計算できる。
この時間加重平均画像が視覚的にエントロピーが少なく画質的に良好だと考えられるが、対象画像Isrcのみや参照画像Idstのみでももちろん構わない。
また、加重平均ではなく単なる平均

(x)=0.5Isrc(x)+0.5Idst(x)

でも構わない。
(5)アルファマップ生成部18
次に、アルファマップ生成部18について図5のフローチャートに基づいて説明する。
(5−1)アルファ値の計算
アルファマップ生成部18は、アルファマップ、すなわち、信頼度マップを生成する。このアルファマップはアルファブレンドをする際の基準となる各点の係数のマップであり、この係数であるアルファ値(信頼度)は0−1の範囲の値を取るものとし、対象画像と同じサイズを持つ。
前記歪みエネルギーU(x)は0以上の実数として定義されており、歪みエネルギーが小さいほどそのフローの信頼度が高い。信頼度が高い領域はフローによる動き補償画像を優先してアルファブレンディングしたいので、つまり歪みエネルギーが小さいものはアルファ値を1に近くし、逆であれば0に近くしたい。
そこで以下のような正規分布関数により、前記歪みエネルギーU(x)を0−1の範囲のアルファ値へ変換を行うことができる。
Figure 2008244846
他にもロジスティック写像
Figure 2008244846
を用いることもできる。ここでa>0、b>0は変換の形状を決めるパラメータである。
(5−2)位置のシフト
歪みエネルギーは対象画像と同じ時間位置で計算されているため、アルファマップとするには位置をシフトする必要がある。位置はフローによってシフトする。補間フレームの内挿時間位置を0=<t=<1とすると補間位置は
Figure 2008244846
シフトによってアルファ値が重なってしまう部分も出てくる。この場合はアルファ値の高い方を優先する。これはアルファ値が高い方がフローの信頼度が高いからである。
また、整数化オペレータによって切り捨てが起こっているので、それを保証するためにx軸とy軸に局所的な繰り返しを行っても良い。
(6)動き補償ワーピング部20
次に、動き補償ワーピング部20について図6のフローチャートに基づいて説明する。
動き補償ワーピング部20は、フローによって対象画像、参照画像をワーピングして動き補償する。
フローによってシフトする方法はアルファマップ生成部18と同様である。点xに対する対象画像、参照画像の画素値は

=Isrc(x)

=Idst(x+u(x))

となる。補間フレームの内挿時間位置を0=<t=<1とすると時間の加重平均により補間画素値は

mc=(1−t)I+tI

と計算できる。これが動き補償画像Imcとなる。
アルファマップ生成部18と同様に、シフトした結果によって画素が重なってしまう領域もありうる。この場合は先ほどと同様にアルファ値を比較すると良い。
また、穴が空いてしまう部分も発生する可能性があるが、小さな穴に関してはフィルタリング処理で埋めてしまうことができる。また大きな穴に関しては前記破綻防止画像で埋めることができる。
(7)アルファブレンディング部22
次に、アルファブレンディング部22について図7のフローチャートに基づいて説明する。
アルファブレンディング部22では、動き補償画像、破綻防止画像をアルファマップに従って合成する。
合成は一般的なアルファブレンディングの手順に従う。

I=α(x)Imc(x)+(1−α(x))I(x)

により最終的な補間画素値を決定することにより、対象画像と参照画像との間に補間されるフレーム補間画像が生成される。
(8)効果
本実施形態のフレーム補間装置10は、動画像が入力されたときに、対象となるフレームとフレームの間に補間フレームを内挿し単位時間当たりのフレーム数を増加させて動画を滑らかにする。特に、フレーム内の局所的な劣化にも対応することができる。
(実施形態2)
次に、実施形態2のフレーム補間装置10について図8及び図9に基づいて説明する。
実施形態1のフレーム補間装置10では、ピクセル単位で歪みエネルギーを計算する構成であったが、そのままでは計算量が大きすぎる場合もありうる。そこで本実施形態のフレーム補間装置10ではブロック単位で簡易的に歪みエネルギーを計算する。
本実施形態のフレーム補間装置10は、歪みエネルギー計算部14以外は実施形態1と同様であるので、説明は省略する。
歪みエネルギー計算部14は、ブロック単位で歪みエネルギーを計算する。対象画像を以下のような予め設定された矩形領域のブロックに分割する。

B(i)={i+(x,y)|0=<x<M,0=<y<M

ここで点i∈Xはブロックの左上の点、M、Mはブロックのxサイズ、yサイズである(X⊂Λはフレーム)。残差エネルギーは以下のようなブロック単位のSAD(Sum of Absolute Difference)で行う。
Figure 2008244846
ここでは絶対値差分和を用いたが、二乗和でも良い。
平滑化エネルギーは周辺のブロックのフローとの差分で計算する。
Figure 2008244846
ここでも絶対値の和でも良い。周辺のブロック分の総和により平滑化エネルギーとする。
これらにより
Figure 2008244846
という線形結合を歪みエネルギーと定義できる。これはブロック単位で計算される。ここでNは周辺を表す。例えば、周辺4ブロックなどである。
(実施形態3)
次に、実施形態3のフレーム補間装置10について図10に基づいて説明する。
本実施形態では、図10のブロック図に示すように、画像信号が符号化されて伝送され、それを復号器24によりデコードして補間フレームを内挿する。なお、このときには、動き推定部12でフローを求めず、復号器24からのフローを直接利用する。
(実施形態4)
次に、実施形態4のフレーム補間装置10について図11から図15に基づいて説明する。
実施形態1ではアルファブレンディングによって誤りフローによる補間フレームの破綻を防止する。しかし、図11に示すように、フローの推定結果が低精度で、誤りフローを多数含んでいる場合に問題が発生する。このフローに対するアルファマップを図12に示す。誤りフローの周辺でアルファ値が低くなっていることが確認できる。
しかし、実施形態1では、破綻防止画像として時間加重平均画像を用いるため、このように画面内(特に同じ動き領域内)にアルファ値の高い領域と低い領域が混在してしまうと、動き補償画像と時間加重平均画像が混在することになり、その混在領域がフリッカーとして視認されてしまう。
しかしながらアルファ値の低い領域のフローは低信頼であるから、動き補償画像をそのまま使うことはできない。一方、時間加重平均画像を挿入してもフリッカーとして視認されてしまう。ここでの問題は動き補償画像と時間加重平均画像間の、動きに対する「差」であると考えられる。つまり時間加重平均画像よりも動き補償画像に近い画像を破綻防止画像としてアルファブレンドする必要がある。
ここで問題なのは、同じような動きをしている中に、時間加重平均画像が突然入ってしまうことである。この「同じような動き」というのは画面内のグローバルモーション(Global Motion)によって抽出できる。グローバルモーションとは画面内で支配的な動きのことである。つまりグローバルモーションから低信頼領域補償画像を生成し、これをアルファブレンディングの対象とすればよい。時間加重平均画像は静止のグローバルモーションと捉えることもできるので、アルファブレンディングからの拡張とも考えられる。
(1)フレーム補間装置10の概要
本実施形態のフレーム補間装置10を、図13のブロック図に従い説明する。
フレーム補間装置10は、動き推定部12、歪みエネルギー計算部14、破綻防止画像生成部16、アルファマップ生成部18、動き補償ワーピング部20、アルファブレンディング部22、グローバルモーション抽出部26、第2歪みエネルギー計算部28、第2アルファマップ生成部30、第2動き補償ワーピング部32から構成される。
本実施形態は、基本的にはアルファブレンディングの拡張であるため実施形態1と同様であり、ここでは実施形態1とは異なる部分の説明する。
なお、本実施形態では、以下の記述を用いることとする。
Figure 2008244846
(2)グローバルモーション抽出部26
まず、グローバルモーション抽出部26について図14のフローチャートと図15に基づいて説明する。
グローバルモーションは2次元平面から2次元平面への幾何変換によってモデル化できる。幾何変換の代表はアフィン変換である。これは並進、回転、拡大、せん断変形(正方形を菱形に変形する)を表すことのできる幾何変換である。最もよく使われる幾何変換であるが、自由度が6であるため多少複雑である。そこでここでは並進のみを考慮した幾何変換を考える。2次元フローを一つで表現でき自由度は2である。
Figure 2008244846
ある領域内の代表フローを決定することで得られる。代表フローは平均値やメディアン値によって算出する。
与えられたフローフィールドから任意の数(K個)のグローバルモーションu (但し、k=1,...,Kである)を抽出する問題は、シンプルにはk−means法によって解くことができる。k−means法はフィールドをK個にクラスタリングするアルゴリズムである。
Figure 2008244846
このとき各クラスタの平均値は、
Figure 2008244846
と計算できる。ここでNum()は要素数を数えるオペレータである。右肩の添え字tはイテレーションを表す。
次に平均からの距離が最小となるクラスタを決定し、ラベル更新する。
Figure 2008244846
k−means法では数14の数式、数式15の数式を任意の回数繰り返す。なお、数回で収束するが、1回で収束する場合もある。
初期ラベルの与え方は色々考えられる。例えばランダムにk=1,・・・,Kを割り当てるというのも一つの方法である。ここでは図15に示すように、対象画像のクラスタリング(これもk−means法による)の結果を初期ラベルにする方法を行う。まず、対象画像のブロック内平均を取る。
Figure 2008244846
Figure 2008244846
によりラベリングを行いラベルを更新する。次に
Figure 2008244846
により各クラスタの平均値を算出する。
これら数17の数式、数式18の数式を数回繰り返す。そして対象画像クラスタリングの結果をフロークラスタリングの初期値に設定する。
Figure 2008244846
ここでTはk−means法のイテレーション回数である。
ラベルz(i)を計算した後、平均値もしくはベクトルメディアン値によってグローバルモーションを決定する。
Figure 2008244846
Figure 2008244846
(3)第2アルファマップ生成部30
第2アルファマップ生成部30は、グローバルモーションu (但し、k=1,...,Kである)に応じたアルファマップを生成する。フレーム内の全点がグローバルモーションu で構成されているとして(フレーム全体が一様なフローを持つとする)、実施形態1と同じようにアルファマップ生成を行う。その結果をα(x)(但し、k=1,...,Kである)とする。
また、実施形態1で説明した時間加重平均画像に対するアルファマップも生成する。これは、グローバルモーションu =(0,0)としたとき(すなわち、静止したとき)のアルファマップを生成し、α(x)とする。
(4)第2動き補償ワーピング部32
第2動き補償ワーピング部32は、グローバルモーションu (但し、k=1,...,Kである)に応じた動き補償ワーピング画像を生成する。フレーム内の全点がグローバルモーションu で構成されているとして(フレーム全体が一様なフローを持つとする)、実施形態1の動き補償ワーピングを行う。
その結果をI(x)(但し、k=1,...,Kである)とする。
(4)アルファブレンディング部22
アルファブレンディング部22は、動き補償ワーピング画像I(x)、グローバルモーションワーピング画像I(x)(但し、k=1,...,Kである)、時間加重平均画像I(x)をアルファブレンディングする。
アルファブレンディングとして成り立つためには重み係数の総和が1になるように設計しなければならない。そのようなモデルとして
Figure 2008244846
を考えることができる。
もし、K=0とすれば実施形態1のアルファブレンディングと等価となっている。このことから、本実施形態は、実施形態1のアルファブレンディングの拡張と見ることができる。右辺第2項はグローバルモーションワーピング画像のそれぞれのアルファ値による加重平均となっており、アルファ値の高いグローバルモーションワーピング画像が優先される設計となっている。
(変更例)
本発明は上記各実施形態に限らず、その主旨を逸脱しない限り種々に変更することができる。
(1)変更例1
上記実施形態では、動き補償画像及び時間加重平均画像は、それぞれ補間画像の時間位置で加重平均を行った。
しかし、上記各実施形態のフレーム補間装置を実装するときに、フレームの間の時間方向で量子化するとこの補間画像の時間位置に量子化できない場合がある。そのときは、前記補間画像の時間位置に最も近い時間において加重平均を行う。
(2)変更例2
上記実施形態では、アルファマップ計算部18では、アルファマップを生成してから、補間フレームの時間位置に移動させたが、これに代えて、補間フレームの時間位置に各領域の歪みエネルギーを移動させてから、アルファマップを生成してもよい。
本発明の実施形態1のフレーム補間装置10のブロック図である。 実施形態1の概念フローチャートである。 実施形態1の歪みエネルギー計算フローチャートである。 実施形態1の破綻防止画像生成フローチャートである。 実施形態1のアルファマップ生成フローチャートである。 実施形態1の動き補償ワーピングフローチャートである。 実施形態1のアルファブレンディングフローチャートである。 実施形態2のフレーム補間画像のブロック図である。 実施形態2の歪みエネルギー計算フローチャートである。 実施形態3のフレーム補間画像のブロック図である。 低い精度のフローの説明図である。 低い精度のフローから生成したアルファマップである。 実施形態4のフレーム補間装置のブロック図である。 k−meansクラスタリングのフローチャートである。 グローバルモーション抽出の説明図である。
符号の説明
10 フレーム補間装置10
12 動き推定部
14 歪みエネルギー計算部
16 破綻防止画像生成部
18 アルファマップ生成部
20 動き補償ワーピング部
22 アルファブレンディング部

Claims (12)

  1. 対象画像と参照画像との間に補間画像を内挿するフレーム補間装置において、
    前記対象画像内を分割したそれぞれの対象領域について、前記各対象領域から前記参照画像の各参照領域へのそれぞれの第1動きベクトル、前記各第1動きベクトルを前記対象画像と前記補間画像との第1時間距離に応じてスケーリングした各第2動きベクトル、及び、前記各第1動きベクトルを前記参照画像と前記補間画像との第2時間距離に応じてスケーリングした各第3動きベクトルを求める動き推定部と、
    前記対象領域の各画素の画素値と前記参照領域の各画素の画素値との差分が小さい程に小さくなる歪みエネルギーを、前記対象領域毎にそれぞれ求める歪みエネルギー計算部と、
    前記各対象領域から前記第2動きベクトルによって指し示される前記補間画像内の各第1補間領域の第1加重平均用の重みを、前記各対象領域の歪みエネルギーから求める重み計算部と、
    前記各対象領域の画像を前記各第2動きベクトルを用いて前記補間画像の時間位置に動き補償した第1動き補償画像と、前記各参照領域の画像を前記第3動きベクトルを用いて前記補間画像の時間位置に動き補償した第2動き補償画像との、前記第1及び第2時間距離に応じた第2加重平均により第3動き補償画像を求める動き補償画像生成部と、
    (1)前記対象画像、(2)前記参照画像、または、(3)前記対象画像と前記参照画像との前記第1及び前記第2時間距離に応じた第3加重平均によって求められた時間加重平均画像、のいずれかを破綻防止画像として取得する破綻防止画像取得部と、
    前記補間画像を分割した各第2補間領域に対応する前記動き補償画像内の領域の画像と、前記各第2補間領域に対応する前記破綻防止画像内の領域の画像との、前記重みに基づく前記第1加重平均を求めることにより前記各補間領域の画像を求める画像補間部、
    を有するフレーム補間装置。
  2. 対象画像と参照画像との間に補間画像を内挿するフレーム補間装置において、
    前記対象画像内を分割したそれぞれの対象領域について、前記各対象領域から前記参照画像の各参照領域へのそれぞれの第1動きベクトル、前記各第1動きベクトルを前記対象画像と前記補間画像との第1時間距離に応じてスケーリングした各第2動きベクトル、及び、前記各第1動きベクトルを前記参照画像と前記補間画像との第2時間距離に応じてスケーリングした各第3動きベクトルを求める動き推定部と、
    前記対象領域の各画素の画素値と前記参照領域の各画素の画素値との差分が小さい程に小さくなる歪みエネルギーを、前記対象領域毎にそれぞれ求める歪みエネルギー計算部と、
    前記各対象領域から前記第2動きベクトルによって指し示される前記補間画像内の各第1補間領域の第1加重平均用の重みを、前記各対象領域の歪みエネルギーから求める重み計算部と、
    前記各対象領域の画像を前記各第2動きベクトルを用いて前記補間画像の時間位置に動き補償した第1動き補償画像と、前記各参照領域の画像を前記第3動きベクトルを用いて前記補間画像の時間位置に動き補償した第2動き補償画像との、前記第1及び第2時間距離に応じた第2加重平均により第3動き補償画像を求める動き補償画像生成部と、
    前記対象画像を前記参照画像に幾何変換するための前記対象画像のベクトル抽出領域毎のグローバルモーションベクトルを求め、前記ベクトル抽出領域毎のグローバルモーションベクトルに基づいて破綻防止画像を取得する破綻防止画像取得部と、
    前記補間画像を分割した各第2補間領域に対応する前記動き補償画像内の領域の画像と、前記各第2補間領域に対応する前記破綻防止画像内の領域の画像との、前記重みに基づく前記第1加重平均を求めることにより前記各補間領域の画像を求める画像補間部、
    を有するフレーム補間装置。
  3. 前記歪みエネルギー計算部は、
    前記対象領域の前記歪みエネルギーと、前記各対象領域の周囲にあるそれぞれの周囲領域の前記歪みエネルギーを求め、
    前記対象領域の前記歪みエネルギーと前記周囲領域の前記歪みエネルギーとの第4加重平均を求めて、前記対象領域の前記歪みエネルギーとする、
    請求項1または2記載のフレーム補間装置。
  4. 前記対象領域の画素値と、前記周囲領域の画素値との差分が大きい程に、前記第4加重平均における前記周囲領域の前記歪みエネルギーの重みを小さくする、
    請求項3記載のフレーム補間装置。
  5. 前記歪みエネルギー計算部は、
    前記各対象領域の周囲にある周囲領域の動きベクトルをそれぞれ求め、
    前記対象領域の動きベクトルと、前記周囲領域の動きベクトルとの差分に基づいて平滑化エネルギーを求め、
    前記歪みエネルギーに前記平滑化エネルギーを加算する、
    請求項1または2記載のフレーム補間装置。
  6. 前記歪みエネルギー計算部は、
    前記対象領域の周囲にある周囲領域の動きベクトルを求め、
    前記対象領域の動きベクトルと、前記周囲領域の動きベクトルとの差分に基づいて平滑化エネルギーを求め、
    前記歪みエネルギーに前記平滑化エネルギーを加重平均する、
    請求項1または2記載のフレーム補間装置。
  7. 前記歪みエネルギー計算部は、
    前記対象領域の画素値と、前記周囲領域の画素値との差分が大きい程に、前記加重平均における前記平滑化エネルギーの重みを小さくする、
    請求項6記載のフレーム補間装置。
  8. 前記重み計算部は、
    前記歪みエネルギーと前記重みとが一対一に対応し、
    前記重みが0から1となる単調減少関数に基づいて前記歪みエネルギーを変換する、
    請求項1または2記載のフレーム補間装置。
  9. 対象画像と参照画像との間に補間画像を内挿するフレーム補間方法において、
    前記対象画像内を分割したそれぞれの対象領域について、前記各対象領域から前記参照画像の各参照領域へのそれぞれの第1動きベクトル、前記各第1動きベクトルを前記対象画像と前記補間画像との第1時間距離に応じてスケーリングした各第2動きベクトル、及び、前記各第1動きベクトルを前記参照画像と前記補間画像との第2時間距離に応じてスケーリングした各第3動きベクトルを求める動き推定ステップと、
    前記対象領域の各画素の画素値と前記参照領域の各画素の画素値との差分が小さい程に小さくなる歪みエネルギーを、前記対象領域毎にそれぞれ求める歪みエネルギー計算ステップと、
    前記各対象領域から前記第2動きベクトルによって指し示される前記補間画像内の各第1補間領域の第1加重平均用の重みを、前記各対象領域の歪みエネルギーから求める重み計算ステップと、
    前記各対象領域の画像を前記各第2動きベクトルを用いて前記補間画像の時間位置に動き補償した第1動き補償画像と、前記各参照領域の画像を前記第3動きベクトルを用いて前記補間画像の時間位置に動き補償した第2動き補償画像との、前記第1及び第2時間距離に応じた第2加重平均により第3動き補償画像を求める動き補償画像生成ステップと、
    (1)前記対象画像、(2)前記参照画像、または、(3)前記対象画像と前記参照画像との前記第1及び前記第2時間距離に応じた第3加重平均によって求められた時間加重平均画像、のいずれかを破綻防止画像として取得する破綻防止画像取得ステップと、
    前記補間画像を分割した各第2補間領域に対応する前記動き補償画像内の領域の画像と、前記各第2補間領域に対応する前記破綻防止画像内の領域の画像との、前記重みに基づく前記第1加重平均を求めることにより前記各補間領域の画像を求める画像補間ステップ、
    を有するフレーム補間方法。
  10. 対象画像と参照画像との間に補間画像を内挿するフレーム補間方法において、
    前記対象画像内を分割したそれぞれの対象領域について、前記各対象領域から前記参照画像の各参照領域へのそれぞれの第1動きベクトル、前記各第1動きベクトルを前記対象画像と前記補間画像との第1時間距離に応じてスケーリングした各第2動きベクトル、及び、前記各第1動きベクトルを前記参照画像と前記補間画像との第2時間距離に応じてスケーリングした各第3動きベクトルを求める動き推定ステップと、
    前記対象領域の各画素の画素値と前記参照領域の各画素の画素値との差分が小さい程に小さくなる歪みエネルギーを、前記対象領域毎にそれぞれ求める歪みエネルギー計算ステップと、
    前記各対象領域から前記第2動きベクトルによって指し示される前記補間画像内の各第1補間領域の第1加重平均用の重みを、前記各対象領域の歪みエネルギーから求める重み計算ステップと、
    前記各対象領域の画像を前記各第2動きベクトルを用いて前記補間画像の時間位置に動き補償した第1動き補償画像と、前記各参照領域の画像を前記第3動きベクトルを用いて前記補間画像の時間位置に動き補償した第2動き補償画像との、前記第1及び第2時間距離に応じた第2加重平均により第3動き補償画像を求める動き補償画像生成ステップと、
    前記対象画像を前記参照画像に幾何変換するための前記対象画像のベクトル抽出領域毎のグローバルモーションベクトルを求め、前記ベクトル抽出領域毎のグローバルモーションベクトルに基づいて破綻防止画像を取得する破綻防止画像取得ステップと、
    前記補間画像を分割した各第2補間領域に対応する前記動き補償画像内の領域の画像と、前記各第2補間領域に対応する前記破綻防止画像内の領域の画像との、前記重みに基づく前記第1加重平均を求めることにより前記各補間領域の画像を求める画像補間ステップ、
    を有するフレーム補間方法。
  11. コンピュータによって実行されるプログラムであって、当該コンピュータを請求項1から請求項8までのいずれか一項に記載のフレーム補間装置として機能させるプログラム。
  12. コンピュータによって実行されるプログラムであって、請求項9から請求項10までのいずれか一項に記載のフレーム補間方法を当該コンピュータに実行させるためのプログラム。
JP2007082613A 2007-03-27 2007-03-27 フレーム補間装置及びその方法 Pending JP2008244846A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007082613A JP2008244846A (ja) 2007-03-27 2007-03-27 フレーム補間装置及びその方法
EP20080004561 EP1978737A2 (en) 2007-03-27 2008-03-12 Frame interpolation apparatus and method
CNA2008100872796A CN101277419A (zh) 2007-03-27 2008-03-26 帧内插设备与方法
US12/056,085 US20080240241A1 (en) 2007-03-27 2008-03-26 Frame interpolation apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007082613A JP2008244846A (ja) 2007-03-27 2007-03-27 フレーム補間装置及びその方法

Publications (1)

Publication Number Publication Date
JP2008244846A true JP2008244846A (ja) 2008-10-09

Family

ID=39708878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007082613A Pending JP2008244846A (ja) 2007-03-27 2007-03-27 フレーム補間装置及びその方法

Country Status (4)

Country Link
US (1) US20080240241A1 (ja)
EP (1) EP1978737A2 (ja)
JP (1) JP2008244846A (ja)
CN (1) CN101277419A (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009239726A (ja) * 2008-03-27 2009-10-15 Toshiba Corp 補間画像生成装置、方法およびプログラム
JP2011234307A (ja) * 2010-04-30 2011-11-17 Toshiba Corp 画像処理装置
JP2012040215A (ja) * 2010-08-20 2012-03-01 Kyoraku Sangyo Kk 遊技機用中継基板
JP2012040214A (ja) * 2010-08-20 2012-03-01 Kyoraku Sangyo Kk 遊技機
JP2013239791A (ja) * 2012-05-11 2013-11-28 Canon Inc 画像処理装置、画像処理方法、及び、プログラム
JP2018528840A (ja) * 2015-09-25 2018-10-04 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 蛍光透視法における低フレームレートの空間フリッカの除去
WO2019058606A1 (ja) * 2017-09-22 2019-03-28 株式会社Jvcケンウッド 補間フレーム生成装置
KR102201297B1 (ko) * 2020-05-29 2021-01-08 연세대학교 산학협력단 다중 플로우 기반 프레임 보간 장치 및 방법

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0618323D0 (en) * 2006-09-18 2006-10-25 Snell & Wilcox Ltd Method and apparatus for interpolating an image
US8942505B2 (en) * 2007-01-09 2015-01-27 Telefonaktiebolaget L M Ericsson (Publ) Adaptive filter representation
US8805101B2 (en) * 2008-06-30 2014-08-12 Intel Corporation Converting the frame rate of video streams
GB201007351D0 (en) * 2010-04-30 2010-06-16 Imagination Tech Ltd Varying temporal interpolation in a motion compensated frame interpolation system
WO2012000191A1 (en) * 2010-06-30 2012-01-05 France Telecom Research & Development Beijing Company Limited Pixel interpolation method and system
JP5645636B2 (ja) * 2010-12-16 2014-12-24 三菱電機株式会社 フレーム補間装置及び方法
TWI502979B (zh) * 2012-02-13 2015-10-01 Altek Corp 影像移動估算方法
CN103248795B (zh) * 2012-02-13 2016-03-30 华晶科技股份有限公司 影像移动估算方法
GB2510368B (en) * 2013-01-31 2017-03-01 Imagination Tech Ltd Pixel Clustering
CN103647973B (zh) * 2013-12-10 2017-01-04 华为技术有限公司 一种帧率上采样的方法和装置
US10776688B2 (en) 2017-11-06 2020-09-15 Nvidia Corporation Multi-frame video interpolation using optical flow
CN111277780B (zh) * 2018-12-04 2021-07-20 阿里巴巴集团控股有限公司 一种改善插帧效果的方法和装置
EP4029244A4 (en) * 2019-09-22 2023-06-28 HFI Innovation Inc. Method and apparatus of sample clipping for prediction refinement with optical flow in video coding
US10958869B1 (en) 2019-11-14 2021-03-23 Huawei Technologies Co., Ltd. System, device and method for video frame interpolation using a structured neural network
CN111491204B (zh) * 2020-04-17 2022-07-12 Oppo广东移动通信有限公司 视频修复方法、装置、电子设备和计算机可读存储介质
CN113726980A (zh) * 2020-05-25 2021-11-30 瑞昱半导体股份有限公司 图像处理方法

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5512956A (en) * 1994-02-04 1996-04-30 At&T Corp. Adaptive spatial-temporal postprocessing for low bit-rate coded image sequences
US6178205B1 (en) * 1997-12-12 2001-01-23 Vtel Corporation Video postfiltering with motion-compensated temporal filtering and/or spatial-adaptive filtering
US6192080B1 (en) * 1998-12-04 2001-02-20 Mitsubishi Electric Research Laboratories, Inc. Motion compensated digital video signal processing
JP2001007846A (ja) * 1999-06-18 2001-01-12 Fujitsu Ltd フレーム中継装置
US6625333B1 (en) * 1999-08-06 2003-09-23 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry Through Communications Research Centre Method for temporal interpolation of an image sequence using object-based image analysis
KR100708091B1 (ko) * 2000-06-13 2007-04-16 삼성전자주식회사 양방향 움직임 벡터를 이용한 프레임 레이트 변환 장치 및그 방법
JP2005006275A (ja) 2002-11-22 2005-01-06 Matsushita Electric Ind Co Ltd 補間フレーム作成装置、補間フレーム作成方法、および補間フレーム作成プログラム
US7197074B2 (en) * 2003-02-20 2007-03-27 The Regents Of The University Of California Phase plane correlation motion vector determination method
JP4220284B2 (ja) * 2003-03-28 2009-02-04 株式会社東芝 フレーム補間方法、装置及びこれを用いた画像表示システム
US8107535B2 (en) * 2003-06-10 2012-01-31 Rensselaer Polytechnic Institute (Rpi) Method and apparatus for scalable motion vector coding
KR100657261B1 (ko) * 2003-12-10 2006-12-14 삼성전자주식회사 적응적 움직임 보상 보간 방법 및 장치
US7499494B2 (en) * 2003-12-23 2009-03-03 Genesis Microchip Inc. Vector selection decision for pixel interpolation
JP4198608B2 (ja) * 2004-01-15 2008-12-17 株式会社東芝 補間画像生成方法および装置
CA2565670A1 (en) * 2004-05-04 2005-11-17 Qualcomm Incorporated Method and apparatus for motion compensated frame rate up conversion
US20060017843A1 (en) * 2004-07-20 2006-01-26 Fang Shi Method and apparatus for frame rate up conversion with multiple reference frames and variable block sizes
US8355441B2 (en) * 2004-12-09 2013-01-15 Thomson Licensing Method and apparatus for generating motion compensated pictures
JP4398925B2 (ja) * 2005-03-31 2010-01-13 株式会社東芝 補間フレーム生成方法、補間フレーム生成装置および補間フレーム生成プログラム
US7535517B2 (en) * 2005-04-14 2009-05-19 Samsung Electronics Co., Ltd. Method of motion compensated temporal noise reduction
US8903196B2 (en) * 2005-10-05 2014-12-02 Texas Instruments Incorporated Video presentation at fractional speed factor using time domain interpolation
CN101374462A (zh) * 2005-12-09 2009-02-25 皇家飞利浦电子股份有限公司 基于模型的流动分析和可视化
JP2007180981A (ja) * 2005-12-28 2007-07-12 Victor Co Of Japan Ltd 画像符号化装置、画像符号化方法、及び画像符号化プログラム
US8582660B2 (en) * 2006-04-13 2013-11-12 Qualcomm Incorporated Selective video frame rate upconversion
US8630346B2 (en) * 2007-02-20 2014-01-14 Samsung Electronics Co., Ltd System and method for introducing virtual zero motion vector candidates in areas of a video sequence involving overlays
US8144778B2 (en) * 2007-02-22 2012-03-27 Sigma Designs, Inc. Motion compensated frame rate conversion system and method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009239726A (ja) * 2008-03-27 2009-10-15 Toshiba Corp 補間画像生成装置、方法およびプログラム
JP2011234307A (ja) * 2010-04-30 2011-11-17 Toshiba Corp 画像処理装置
JP2012040215A (ja) * 2010-08-20 2012-03-01 Kyoraku Sangyo Kk 遊技機用中継基板
JP2012040214A (ja) * 2010-08-20 2012-03-01 Kyoraku Sangyo Kk 遊技機
JP2013239791A (ja) * 2012-05-11 2013-11-28 Canon Inc 画像処理装置、画像処理方法、及び、プログラム
JP2018528840A (ja) * 2015-09-25 2018-10-04 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 蛍光透視法における低フレームレートの空間フリッカの除去
WO2019058606A1 (ja) * 2017-09-22 2019-03-28 株式会社Jvcケンウッド 補間フレーム生成装置
KR102201297B1 (ko) * 2020-05-29 2021-01-08 연세대학교 산학협력단 다중 플로우 기반 프레임 보간 장치 및 방법
WO2021241804A1 (ko) * 2020-05-29 2021-12-02 연세대학교 산학협력단 다중 플로우 기반 프레임 보간 장치 및 방법

Also Published As

Publication number Publication date
US20080240241A1 (en) 2008-10-02
CN101277419A (zh) 2008-10-01
EP1978737A2 (en) 2008-10-08

Similar Documents

Publication Publication Date Title
JP2008244846A (ja) フレーム補間装置及びその方法
US8306121B2 (en) Method and apparatus for super-resolution of images
Kang et al. Motion compensated frame rate up-conversion using extended bilateral motion estimation
JP5106203B2 (ja) 補間画像生成装置、方法およびプログラム
JP4997281B2 (ja) イメージ中の推定動きベクトルの決定方法、コンピュータプログラムおよびディスプレイ装置
US20120093231A1 (en) Image processing apparatus and image processing method
JP5645636B2 (ja) フレーム補間装置及び方法
JP4869045B2 (ja) 補間フレーム作成方法および補間フレーム作成装置
TW201146011A (en) Bi-directional, local and global motion estimation based frame rate conversion
JP5081898B2 (ja) 補間画像生成方法及びシステム
JP2008099281A (ja) 動き補償画像の補間方法、及びその方法を実現する装置
US20110058610A1 (en) Methods and Systems for Motion Estimation with Nonlinear Motion-Field Smoothing
JP2008091979A (ja) 画像高画質化装置、及びその方法、並びに画像表示装置
WO2011018878A1 (ja) 画像処理システム、画像処理方法および画像処理用プログラム
CN108271022A (zh) 一种运动估计的方法及装置
US8830394B2 (en) System, method, and apparatus for providing improved high definition video from upsampled standard definition video
WO2012066866A1 (ja) 動きベクトル検出装置、動きベクトル検出方法、フレーム補間装置及びフレーム補間方法
JP5490117B2 (ja) 画像処理装置
US10432962B1 (en) Accuracy and local smoothness of motion vector fields using motion-model fitting
US20130120461A1 (en) Image processor and image processing method
KR20050081730A (ko) 움직임 보상 기반의 영상 신호 프레임율 변환 방법
JP5448983B2 (ja) 解像度変換装置及び方法、走査線補間装置及び方法、並びに映像表示装置及び方法
CN105100588A (zh) 图像处理设备、成像设备以及图像处理方法
US20150222920A1 (en) Image processing device, imaging device, and image processing method
JP5435242B2 (ja) 画像処理方法、画像処理装置及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091120

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100126