JPWO2016111239A1 - 映像処理装置、映像処理方法及びプログラム - Google Patents
映像処理装置、映像処理方法及びプログラム Download PDFInfo
- Publication number
- JPWO2016111239A1 JPWO2016111239A1 JP2016568360A JP2016568360A JPWO2016111239A1 JP WO2016111239 A1 JPWO2016111239 A1 JP WO2016111239A1 JP 2016568360 A JP2016568360 A JP 2016568360A JP 2016568360 A JP2016568360 A JP 2016568360A JP WO2016111239 A1 JPWO2016111239 A1 JP WO2016111239A1
- Authority
- JP
- Japan
- Prior art keywords
- frame image
- image
- frame
- movement amount
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 50
- 238000003672 processing method Methods 0.000 title claims description 15
- 230000033001 locomotion Effects 0.000 claims abstract description 331
- 238000012937 correction Methods 0.000 claims abstract description 94
- 230000004397 blinking Effects 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims description 100
- 230000009466 transformation Effects 0.000 claims description 61
- 239000000203 mixture Substances 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 24
- 230000015572 biosynthetic process Effects 0.000 abstract description 7
- 238000003786 synthesis reaction Methods 0.000 abstract description 7
- 230000008859 change Effects 0.000 description 51
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 41
- 239000013598 vector Substances 0.000 description 27
- 230000003287 optical effect Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 16
- 238000010187 selection method Methods 0.000 description 11
- 206010010904 Convulsion Diseases 0.000 description 10
- 206010034972 Photosensitivity reaction Diseases 0.000 description 10
- 238000001514 detection method Methods 0.000 description 10
- 230000036211 photosensitivity Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000000694 effects Effects 0.000 description 6
- 230000002194 synthesizing effect Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000002411 adverse Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 229920006395 saturated elastomer Polymers 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 241000098700 Sarcocheilichthys parvus Species 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000036461 convulsion Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 206010015037 epilepsy Diseases 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005195 poor health Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
時間的に連続する複数のフレーム画像のいずれかが、輝度又は彩度が前後のフレーム画像に対して所定のレベル以上異なる明滅領域を含む注目フレーム画像であるか判定する判定手段と、
前記注目フレーム画像及びその前後のフレーム画像から輝度又は彩度の差に基づいて選択されたフレーム画像のペアに基づいて、カメラの動きに起因する第1の移動量及び/又は被写体の動きに起因する第2の移動量を推定する動き推定手段と、
前記選択されたペアと、前記推定された第1の移動量及び/又は第2の移動量とに基づいて、前記注目フレーム画像の撮影時刻におけるフレーム画像に相当する補正フレーム画像を生成する画像生成手段と、
前記注目フレーム画像と前記補正フレーム画像とを合成する画像合成手段と
を備える。
時間的に連続する複数のフレーム画像のいずれかが、輝度又は彩度が前後のフレーム画像に対して所定のレベル以上異なる明滅領域を含む注目フレーム画像であるか判定し、
前記注目フレーム画像及びその前後のフレーム画像から輝度又は彩度の差に基づいて選択されたフレーム画像のペアに基づいて、カメラの動きに起因する第1の移動量及び/又は被写体の動きに起因する第2の移動量を推定し、
前記選択されたペアと、前記推定された第1の移動量及び/又は第2の移動量とに基づいて、前記注目フレーム画像の撮影時刻におけるフレーム画像に相当する補正フレーム画像を生成し、
前記注目フレーム画像と前記補正フレーム画像とを合成する。
コンピュータに、
時間的に連続する複数のフレーム画像のいずれかが、輝度又は彩度が前後のフレーム画像に対して所定のレベル以上異なる明滅領域を含む注目フレーム画像であるか判定する処理と、
前記注目フレーム画像及びその前後のフレーム画像から輝度又は彩度の差に基づいて選択されたフレーム画像のペアに基づいて、カメラの動きに起因する第1の移動量及び/又は被写体の動きに起因する第2の移動量を推定する処理と、
前記選択されたペアと、前記推定された第1の移動量及び/又は第2の移動量とに基づいて、前記注目フレーム画像の撮影時刻におけるフレーム画像に相当する補正フレーム画像を生成する処理と、
前記注目フレーム画像と前記補正フレーム画像とを合成する処理と
を実行させる。
時間的に連続する複数のフレーム画像から第1のフレーム画像と第2のフレーム画像とを選択する選択手段と、
前記第1のフレーム画像と前記第2のフレーム画像の間において検出された対応点又は対応領域の位置関係に基づいて幾何変換パラメーターを算出し、カメラの動きに起因する第1の移動量を推定する第1の推定手段と、
前記幾何変換パラメーターに基づいて、前記第1の移動量を減算することで、前記第1のフレーム画像及び前記第2のフレーム画像から被写体領域を検出し、前記検出された被写体領域に基づいて被写体の動きに起因する第2の移動量を推定する第2の推定手段と
を備える。
図1は、本発明による第1の実施の形態に係る映像処理装置100の構成を示すブロック図である。なお、図1(及び以降のブロック図)に記載された矢印は、データの流れの一例を示すにすぎず、データの流れを限定することを意図したものではない。
判定部11は、複数のフレーム画像の入力を受け付けると、注目フレーム画像が明滅領域を含むフレーム画像であるか判定する。
図3は、動き推定部12の構成を示すブロック図である。
選択部12Aは、注目フレーム画像以外のフレーム画像から、移動量の推定に用いるフレーム画像を選択し、選択されたフレーム画像を含む1対のフレーム画像を取得する。選択部12Aは、これらのフレーム画像(以下「動き推定用フレーム画像」という。)を、例えば以下の方法によって選択する。
選択部12Aは、注目フレーム画像と入力された他のフレーム画像との輝度差に基づいて、注目フレーム画像の前後からそれぞれ1つのフレーム画像を動き推定用フレーム画像として選択してもよい。この場合、選択部12Aは、注目フレーム画像の前後それぞれのフレーム画像を1つずつ取得して1対の動き推定用フレーム画像として用いる。具体的には、選択部12Aは、判定部11で算出された判定フラグを用いて動き推定用フレーム画像を選択してもよい。
選択部12Aは、注目フレーム画像と入力された他のフレーム画像の間の輝度変化に基づいて、注目フレーム画像の前後それぞれから複数のフレーム画像を動き推定用フレーム画像として選択してもよい。この場合、選択部12Aは、フレーム画像の対(ペア)を複数取得する。具体的には、選択部12Aは、注目フレーム画像の近隣のフレーム画像のうち、判定部11で算出された判定フラグが1のフレーム画像を予め定められた数選択してもよい。
選択部12Aは、注目フレーム画像と入力された他のフレーム画像の間の輝度差に基づいて、注目フレーム画像の前後どちらか一方のフレーム画像と注目フレーム画像とを動き推定用フレーム画像として選択してもよい。具体的には、選択部12Aは、判定部11で算出された判定フラグが「1」のフレームのうち、注目フレーム画像に最も近接するフレーム画像を選択してもよい。注目フレーム画像の前後いずれも判定フラグが「1」である場合には、選択部12Aは、予め設定された一方のフレームのみを選択する。図6は、注目フレーム画像よりも前の時刻のフレーム画像を選択した場合の一例を示す。この場合、選択部12Aは、このように選択されたフレーム画像と注目フレーム画像とを1対の動き推定用フレーム画像として用いる。
第1推定部12Bは、動き推定用フレーム画像のペア間におけるカメラ又は被写体の動きに起因した画素の動きを推定する。動き推定は、動き推定用フレーム画像のうちの任意の2つのフレーム画像の組み合わせ(ペア)に対して行う。第1推定部12Bは、1又は複数のペアのうち少なくとも1組に対して動き推定を行う。
第1推定部12Bは、画像I上の画素Pについてオプティカルフローを算出し、画素Pの移動先の画素P’を対応点とする。オプティカルフローの主な算出方法としては、Lucas-Kanade法やHorn-Schunck法に基づく方法が挙げられる。Lucas-Kanade法は、移動前後で画素値はほぼ同値とする拘束条件に基づき、画像の移動量を算出する方法である(非特許文献3)。また、Horn-Schunck法は、隣接するオプティカルフローの間の滑らかさを考慮しながら、画像全体の誤差関数を最小化することで画像の移動量を算出する方法である(非特許文献4)。
第1推定部12Bは、画像I上の領域Rに対応する画像I’上の領域R’を特定し、領域Rの中心座標に相当する画素Pの対応点を領域R’の中心座標に相当する画素P’とする。領域R、R’は、画像I、I’を規定サイズの格子状に分割した矩形領域であってもよいし、色やテクスチャなどの画像特徴量に基づく画素のクラスタリングによって生成されたクラスタであってもよい。
第1推定部12Bは、画像Iから特徴点に相当する画素Pを抽出し、画像I’の画素pの移動先に相当する画素P’を対応点とする。第1推定部12Bは、例えばHarrisのコーナー検出アルゴリズムによって検出されるコーナー点を特徴点としてもよい。Harrisのコーナー検出アルゴリズムは、「エッジ上の点では一次微分値(差分)が一方向にのみ大、コーナー上の点では一次微分値が複数の方向に大」との知識に基づき、下式で表されるHarrisオペレータdst(x,y)の正の極大値が大きい点を抽出するアルゴリズムである。
第2推定部12Cは、被写体の動きに起因した画像の動きを、動き推定用フレーム画像のペアの一方から被写体領域を検出し、他方から対応領域(被写体領域に対応する領域)を推定することで求める。あるいは、第2推定部12Cは、動き推定用フレーム画像のペアの一方又は両方をアフィン変換することで変換画像を生成し、動き推定用フレーム画像のペアのうち一方のフレーム画像又はその変換画像から被写体領域を検出してもよい。この場合、第2推定部12Cは、被写体の動きに起因した画像の動きを、動き推定用フレーム画像のペアのうち他方のフレーム画像又はその変換画像の対応領域を推定することで求めてもよい。
第2推定部12Cは、動き推定用フレーム画像のペアの一方から、アフィン変換パラメーターによって推定される移動量とは異なる動きをする画像(画素の集合)を、被写体領域として検出する。
第2推定部12Cは、動き推定用フレーム画像のペアについて、一方をアフィン変換することで生成した変換画像と、他方のフレーム画像をアフィン変換(逆変換)することで生成した変換画像との差分が大きい領域を、変換画像両方から被写体領域として検出する。
第2推定部12Cは、動き推定用フレーム画像のペアの一方をアフィン変換することで生成した変換画像と他方の差分が大きい領域を、変換画像とフレーム画像のそれぞれから被写体領域として検出してもよい。この検出方法は、(12C−1−2)の派生形である。
第2推定部12Cは、動き推定用フレーム画像のペアの一方から検出された被写体領域の全画素について、他方のフレーム画像との間でオプティカルフローを算出し、オプティカルフローの重み付き平均だけ移動した先を対応領域として検出する。あるいは、第2推定部12Cは、このペアの一方をアフィン変換することで生成した変換画像から検出された被写体領域の全画素について、他方のフレーム画像又はその変換画像との間でオプティカルフローを算出してもよい。
第2推定部12Cは、動き推定用フレーム画像のペアの一方又はそのアフィン変換後の変換画像で検出された被写体領域をテンプレートとし、他方のフレーム画像又はそのアフィン変換後の変換画像を走査するテンプレートマッチングにより、対応領域を検出する。第2推定部12Cは、テンプレートマッチングに用いる類似度指標として、(12B−2)に記載の指標のうちいずれかを用いてもよいし、他の方法を用いてもよい。
第2推定部12Cは、動き推定用フレーム画像のペアの一方又はそのアフィン変化後の変換画像で検出された被写体領域から特徴点を検出し、他方のフレーム画像又はその変換画像から特徴点に対応する点を検出することでオプティカルフローを検出する。第2推定部12Cは、検出されたオプティカルフローの重み付き平均だけ被写体領域を移動した先を対応領域として検出する。なお、第2推定部12Cは、例えばHarrisのコーナー点を特徴点として用いてもよいし、他の方法によって検出された特徴点を用いてもよい。
第2推定部12Cは、動き推定用フレーム画像のペアの一方から、アフィン変換パラメーターによって推定される移動量とは異なる動きをする画素の集合を被写体領域として検出した場合(12C−1−1)、次の方法により被写体の動きを推定する。第2推定部12Cは、被写体領域の位置を表す位置情報(座標)と、対応領域の位置情報との差分を算出し、これを被写体領域の仮の移動ベクトルとする。第2推定部12Cは、仮の移動ベクトルと動き推定用フレーム画像のペアにおけるカメラの動きによる画像の移動ベクトルとの差分を算出し、このペアの間での被写体領域の真の移動ベクトルとする。
第2推定部12Cは、動き推定用フレーム画像のペアのそれぞれをアフィン変換することで生成した変換画像同士の差分が大きい領域を変換画像の双方から被写体領域として検出した場合(12C−1−2)、次の方法により被写体の動きを推定する。第2推定部12Cは、一方の変換画像の被写体領域の位置情報と、他方の変換画像から検出した対応領域の位置情報との差分を算出し、動き推定用フレーム画像のペアの間における被写体の真の移動ベクトルとする。
第2推定部12Cは、動き推定用フレーム画像のペアの一方をアフィン変換することで生成した変換画像と他方との差分が大きい領域を双方から被写体領域として検出した場合(12C−1−3)、次の方法により被写体の動きを推定する。第2推定部12Cは、一方の変換画像の被写体領域の位置情報と、他方のフレーム画像から検出した対応領域の位置情報の差分を算出し、動き推定用フレーム画像のペアの間における被写体の真の移動ベクトルとする。この推定方法は、上述した(12C−3−2)の派生形である。
図8は、画像生成部13の構成を示すブロック図である。
第1補正部13Aは、注目フレーム画像に最も近接し、明領域を含まない前後それぞれのフレーム画像が動き推定用フレーム画像として選択された場合(12A−1)には、次の方法により第1の補正画像を生成する。第1補正部13Aは、選択した2つのフレーム画像の間で算出されたアフィン変換パラメーターを用いて、これらのフレーム画像からそれぞれ補正フレーム画像を生成する。
第1補正部13Aは、注目フレーム画像の前後それぞれからフレーム画像が動き推定用フレーム画像として複数選択された場合(12A−2)には、次の方法により第1の補正画像を生成する。第1補正部13Aは、複数の動き推定用フレーム画像のペアで算出された各アフィン変換パラメーターをもとに、各ペアから第1の補正画像をそれぞれ生成する。
第1補正部13Aは、注目フレーム画像と注目フレーム画像の前後どちらか一方のフレーム画像とが動き推定用フレーム画像として選択された場合(12A−3)には、次の方法により第1の補正画像を生成する。第1補正部13Aは、注目フレーム画像と選択されたフレーム画像との間で算出されたアフィン変換パラメーターをもとに、選択されたフレーム画像から第1の補正画像を生成する。
V・(T3−T1)/(T2−T1) (式11)
フレーム画像I2から注目フレーム画像への被写体の真の移動ベクトル:
−V・(T2−T3)/(T2−T1) (式12)
画像合成部14は、注目フレーム画像と補正フレーム画像とを合成し、フラッシュ等による明滅を抑制したフレーム画像(以下「出力フレーム画像」という。)を生成し出力する。
次に、図1及び図10を参照して、本実施の形態の動作を説明する。
本実施の形態に係る映像処理装置100は、光過敏性発作を誘発する可能性のある、大きな輝度変化を含む映像に対して、輝度の変動が抑制された自然な映像を生成することができる。
尚、上述した実施の形態では、明滅領域が注目フレーム画像において他のフレーム画像より所定のレベル以上明るくなる(輝度が大きくなる)明領域の例を説明した。しかし、映像処理装置100は、明滅領域が注目フレーム画像において他のフレーム画像より所定のレベル以上暗くなる(輝度が小さくなる)暗領域である場合に対しても、同様に適用することができる。
本発明による実施の形態は、ハードディスク等に記録されている映像を編集する映像編集システムに適用することができる。また、本発明による実施の形態は、メモリに保持されたフレーム画像を用いることで、ビデオカメラやディスプレイ端末等にも適用することができる。
時間的に連続する複数のフレーム画像のいずれかが、輝度又は彩度が前後のフレーム画像に対して所定のレベル以上異なる明滅領域を含む注目フレーム画像であるか判定する判定手段と、
前記注目フレーム画像及びその前後のフレーム画像から輝度又は彩度の差に基づいて選択されたフレーム画像のペアに基づいて、カメラの動きに起因する第1の移動量及び/又は被写体の動きに起因する第2の移動量を推定する動き推定手段と、
前記選択されたペアと、前記推定された第1の移動量及び/又は第2の移動量とに基づいて、前記注目フレーム画像の撮影時刻におけるフレーム画像に相当する補正フレーム画像を生成する画像生成手段と、
前記注目フレーム画像と前記補正フレーム画像とを合成する画像合成手段と
を備える映像処理装置。
前記動き推定手段は、
前記注目フレーム画像以外のフレーム画像から前記ペアの少なくとも一方を選択する選択手段
を有する
付記1記載の映像処理装置。
前記動き推定手段は、
前記ペアのフレーム画像間において検出された対応点又は対応領域の位置関係に基づいて幾何変換パラメーターを算出し、前記第1の移動量を推定する第1の推定手段を有する
付記2記載の映像処理装置。
前記動き推定手段は、
前記ペアの一方のフレーム画像から前記第1の移動量に基づいて被写体領域を検出し、当該ペアの他方のフレーム画像から当該被写体領域に対応する対応領域を検出し、前記被写体領域及び前記対応領域に基づいて前記第2の移動量を推定する第2の推定手段を有する
付記3記載の映像処理装置。
前記動き推定手段は、
前記幾何変換パラメーターに基づいて、前記第1の移動量を減算することで、前記ペアのそれぞれのフレーム画像から被写体領域を検出し、前記検出された被写体領域に基づいて前記第2の画素移動量を推定する第2の推定手段を有する
付記3記載の映像処理装置。
前記画像生成手段は、
前記第1の移動量に基づいて、前記ペアのそれぞれのフレーム画像から第1の補正画像を生成する第1の補正手段と、
前記第2の移動量に基づいて、前記第1の補正画像のそれぞれから第2の補正画像を生成する第2の補正手段と、
前記第2の補正フレーム画像のそれぞれを合成する合成手段と
を有する
付記1から5までのいずれか記載の映像処理装置。
前記判定手段は、
他のフレーム画像との間で、輝度又は彩度の変化率が規定値以上又は未満の領域が規定面積以上を占めるフレーム画像を前記注目フレーム画像であると判定する
付記1から6までのいずれか記載の映像処理装置。
前記画像合成手段は、
前記注目フレーム画像と前記補正フレーム画像とを合成する合成比率を、所定の関数をもとに算出する
付記1から7までのいずれか記載の映像処理装置。
前記画像合成手段は、
前記注目フレーム画像と前記補正フレーム画像とを合成するための合成比率として、前記注目フレーム画像と前記補正フレーム画像との変化率が大きい領域に対しては、前記補正フレーム画像の合成比率が大きくなるよう設定する
付記1から8までのいずれかに記載の映像処理装置。
注目フレーム画像及びその前後のフレーム画像から輝度又は彩度の差に基づいて選択されたフレーム画像のペアに基づいて、カメラの動きに起因する第1の移動量及び/又は被写体の動きに起因する第2の移動量を推定し、
前記選択されたペアと、前記推定された第1の移動量及び/又は第2の移動量とに基づいて、前記注目フレーム画像の撮影時刻におけるフレーム画像に相当する補正フレーム画像を生成し、
前記注目フレーム画像と前記補正フレーム画像とを合成する
映像処理方法。
前記ペアの少なくとも一方を前記注目フレーム画像以外のフレーム画像から選択する 付記10記載の映像処理方法。
前記ペアのフレーム画像間において検出された対応点又は対応領域の位置関係に基づいて幾何変換パラメーターを算出し、前記第1の移動量を推定する 付記11記載の映像処理方法。
前記ペアの一方のフレーム画像から前記第1の移動量に基づいて被写体領域を検出し、当該ペアの他方のフレーム画像から当該被写体領域に対応する対応領域を検出し、前記被写体領域及び前記対応領域に基づいて前記第2の移動量を推定する 付記12記載の映像処理方法。
前記幾何変換パラメーターに基づいて、前記第1の移動量を減算することで、前記ペアのそれぞれのフレーム画像から被写体領域を検出し、前記検出された被写体領域に基づいて前記第2の画素移動量を推定する 付記12記載の映像処理方法。
前記第1の移動量に基づいて、前記ペアのそれぞれのフレーム画像から第1の補正画像を生成し、
前記第2の移動量に基づいて、前記第1の補正画像のそれぞれから第2の補正画像を生成し、
前記第2の補正フレーム画像のそれぞれを合成する
付記10から14までのいずれか記載の映像処理方法。
他のフレーム画像との間で、輝度又は彩度の変化率が規定値以上又は未満の領域が規定面積以上を占めるフレーム画像を前記注目フレーム画像であると判定する
付記10から15までのいずれか記載の映像処理方法。
前記注目フレーム画像と前記補正フレーム画像とを合成する合成比率を、所定の関数をもとに算出する
付記10から16までのいずれか記載の映像処理方法。
前記注目フレーム画像と前記補正フレーム画像とを合成するための合成比率として、前記注目フレーム画像と前記補正フレーム画像との変化率が大きい領域に対しては、前記補正フレーム画像の合成比率を大きくなるよう設定する
付記10から17までのいずれかに記載の映像処理方法。
コンピュータに、
時間的に連続する複数のフレーム画像のいずれかが、輝度又は彩度が前後のフレーム画像に対して所定のレベル以上異なる明滅領域を含む注目フレーム画像であるか判定する処理と、
前記注目フレーム画像及びその前後のフレーム画像から輝度又は彩度の差に基づいて選択されたフレーム画像のペアに基づいて、カメラの動きに起因する第1の移動量及び/又は被写体の動きに起因する第2の移動量を推定する処理と、
前記選択されたペアと、前記推定された第1の移動量及び/又は第2の移動量とに基づいて、前記注目フレーム画像の撮影時刻におけるフレーム画像に相当する補正フレーム画像を生成する処理と、
前記注目フレーム画像と前記補正フレーム画像とを合成する処理と
を実行させるための映像処理プログラム。
前記推定する処理において、
前記注目フレーム画像以外のフレーム画像から前記ペアの少なくとも一方を選択する
付記19記載の映像処理プログラム。
前記推定する処理において、
前記ペアのフレーム画像間において検出された対応点又は対応領域の位置関係に基づいて幾何変換パラメーターを算出し、前記第1の移動量を推定する
付記20記載の映像処理プログラム。
前記推定する処理において、
前記幾何変換パラメーターに基づいて、前記第1の移動量を減算することで、前記ペアのそれぞれのフレーム画像から被写体領域を検出し、前記検出された被写体領域に基づいて前記第2の画素移動量を推定する
付記21記載の映像処理プログラム。
前記推定する処理において、
前記ペアの一方のフレーム画像から前記第1の移動量に基づいて被写体領域を検出し、当該ペアの他方のフレーム画像から当該被写体領域に対応する対応領域を検出し、前記被写体領域及び前記対応領域に基づいて前記第2の移動量を推定する 付記21記載の映像処理プログラム。
前記補正フレーム画像を生成する処理において、
前記第1の移動量に基づいて、前記ペアのそれぞれのフレーム画像から第1の補正画像を生成し、
前記第2の移動量に基づいて、前記第1の補正画像のそれぞれから第2の補正画像を生成し、
前記第2の補正フレーム画像のそれぞれを合成する
付記19から23までのいずれか記載の映像処理プログラム。
前記判定する処理において、
他のフレーム画像との間で、輝度又は彩度の変化率が規定値以上又は未満の領域が規定面積以上を占めるフレーム画像を前記注目フレーム画像であると判定する
付記19から24までのいずれか記載の映像処理プログラム。
前記合成する処理において、
前記注目フレーム画像と前記補正フレーム画像とを合成する合成比率を、所定の関数をもとに算出する
付記19から25までのいずれか記載の映像処理プログラム。
前記合成する処理において、
前記注目フレーム画像と前記補正フレーム画像とを合成するための合成比率として、前記注目フレーム画像と前記補正フレーム画像との変化率が大きい領域に対しては、前記補正フレーム画像の合成比率が大きくなるよう設定する
付記19から26までのいずれか記載の映像処理プログラム。
時間的に連続する複数のフレーム画像から第1のフレーム画像と第2のフレーム画像とを選択する選択手段と、
前記第1のフレーム画像と前記第2のフレーム画像の間において検出された対応点又は対応領域の位置関係に基づいて幾何変換パラメーターを算出し、カメラの動きに起因する第1の移動量を推定する第1の推定手段と、
前記幾何変換パラメーターに基づいて、前記第1の移動量を減算することで、前記第1のフレーム画像及び前記第2のフレーム画像から被写体領域を検出し、前記検出された被写体領域に基づいて被写体の動きに起因する第2の移動量を推定する第2の推定手段と
を備える映像処理装置。
時間的に連続する複数のフレーム画像から第1のフレーム画像と第2のフレーム画像とを選択し、
前記第1のフレーム画像と前記第2のフレーム画像の間において検出された対応点又は対応領域の位置関係に基づいて幾何変換パラメーターを算出し、カメラの動きに起因する第1の移動量を推定し、
前記幾何変換パラメーターに基づいて、前記第1の移動量を減算することで、前記第1のフレーム画像及び前記第2のフレーム画像から被写体領域を検出し、前記検出された被写体領域に基づいて被写体の動きに起因する第2の移動量を推定する
映像処理方法。
コンピュータに、
時間的に連続する複数のフレーム画像から第1のフレーム画像と第2のフレーム画像とを選択する処理と、
前記第1のフレーム画像と前記第2のフレーム画像の間において検出された対応点又は対応領域の位置関係に基づいて幾何変換パラメーターを算出し、カメラの動きに起因する第1の移動量を推定する処理と、
前記幾何変換パラメーターに基づいて、前記第1の移動量を減算することで、前記第1のフレーム画像及び前記第2のフレーム画像から被写体領域を検出し、前記検出された被写体領域に基づいて被写体の動きに起因する第2の移動量を推定する処理と
を実行させるためのプログラム。
12 動き推定部
12A 選択部
12B 第1推定部
12C 第2推定部
13 画像生成部
13A 第1補正部
13B 第2補正部
13C 合成部
14 画像合成部
コンピュータに、
時間的に連続する複数のフレーム画像のいずれかが、輝度又は彩度が前後のフレーム画像に対して所定のレベル以上異なる明滅領域を含む注目フレーム画像であるか判定する処理と、
前記注目フレーム画像及びその前後のフレーム画像から輝度又は彩度の差に基づいて選択されたフレーム画像のペアに基づいて、カメラの動きに起因する第1の移動量及び/又は被写体の動きに起因する第2の移動量を推定する処理と、
前記選択されたペアと、前記推定された第1の移動量及び/又は第2の移動量とに基づいて、前記注目フレーム画像の撮影時刻におけるフレーム画像に相当する補正フレーム画像を生成する処理と、
前記注目フレーム画像と前記補正フレーム画像とを合成する処理と
を実行させる。
Claims (10)
- 時間的に連続する複数のフレーム画像のいずれかが、輝度又は彩度が前後のフレーム画像に対して所定のレベル以上異なる明滅領域を含む注目フレーム画像であるか判定する判定手段と、
前記注目フレーム画像及びその前後のフレーム画像から輝度又は彩度の差に基づいて選択されたフレーム画像のペアに基づいて、カメラの動きに起因する第1の移動量及び/又は被写体の動きに起因する第2の移動量を推定する動き推定手段と、
前記選択されたペアと、前記推定された第1の移動量及び/又は第2の移動量とに基づいて、前記注目フレーム画像の撮影時刻におけるフレーム画像に相当する補正フレーム画像を生成する画像生成手段と、
前記注目フレーム画像と前記補正フレーム画像とを合成する画像合成手段と
を備える映像処理装置。 - 前記動き推定手段は、
前記注目フレーム画像以外のフレーム画像から前記ペアの少なくとも一方を選択する選択手段
を有する
請求項1記載の映像処理装置。 - 前記動き推定手段は、
前記ペアのフレーム画像間において検出された対応点又は対応領域の位置関係に基づいて幾何変換パラメーターを算出し、前記第1の移動量を推定する第1の推定手段を有する
請求項2記載の映像処理装置。 - 前記動き推定手段は、
前記ペアの一方のフレーム画像から前記第1の移動量に基づいて被写体領域を検出し、当該ペアの他方のフレーム画像から当該被写体領域に対応する対応領域を検出し、前記被写体領域及び前記対応領域に基づいて前記第2の移動量を推定する第2の推定手段を有する
請求項3記載の映像処理装置。 - 前記動き推定手段は、
前記幾何変換パラメーターに基づいて、前記第1の移動量を減算することで、前記ペアのそれぞれのフレーム画像から被写体領域を検出し、前記検出された被写体領域に基づいて前記第2の画素移動量を推定する第2の推定手段を有する
請求項3記載の映像処理装置。 - 前記画像生成手段は、
前記第1の移動量に基づいて、前記ペアのそれぞれのフレーム画像から第1の補正画像を生成する第1の補正手段と、
前記第2の移動量に基づいて、前記第1の補正画像のそれぞれから第2の補正画像を生成する第2の補正手段と、
前記第2の補正フレーム画像のそれぞれを合成する合成手段と
を有する
請求項1から5までのいずれか1項記載の映像処理装置。 - 前記画像合成手段は、
前記注目フレーム画像と前記補正フレーム画像の各画素を、当該画素の輝度の差に応じた比率で合成する
請求項1から6までのいずれか1項記載の映像処理装置。 - 時間的に連続する複数のフレーム画像のいずれかが、輝度又は彩度が前後のフレーム画像に対して所定のレベル以上異なる明滅領域を含む注目フレーム画像であるか判定し、
前記注目フレーム画像及びその前後のフレーム画像から輝度又は彩度の差に基づいて選択されたフレーム画像のペアに基づいて、カメラの動きに起因する第1の移動量及び/又は被写体の動きに起因する第2の移動量を推定し、
前記選択されたペアと、前記推定された第1の移動量及び/又は第2の移動量とに基づいて、前記注目フレーム画像の撮影時刻におけるフレーム画像に相当する補正フレーム画像を生成し、
前記注目フレーム画像と前記補正フレーム画像とを合成する
映像処理方法。 - コンピュータに、
時間的に連続する複数のフレーム画像のいずれかが、輝度又は彩度が前後のフレーム画像に対して所定のレベル以上異なる明滅領域を含む注目フレーム画像であるか判定する処理と、
前記注目フレーム画像及びその前後のフレーム画像から輝度又は彩度の差に基づいて選択されたフレーム画像のペアに基づいて、カメラの動きに起因する第1の移動量及び/又は被写体の動きに起因する第2の移動量を推定する処理と、
前記選択されたペアと、前記推定された第1の移動量及び/又は第2の移動量とに基づいて、前記注目フレーム画像の撮影時刻におけるフレーム画像に相当する補正フレーム画像を生成する処理と、
前記注目フレーム画像と前記補正フレーム画像とを合成する処理と
を実行させるためのプログラムを記録した記録媒体。 - 時間的に連続する複数のフレーム画像から第1のフレーム画像と第2のフレーム画像とを選択する選択手段と、
前記第1のフレーム画像と前記第2のフレーム画像の間において検出された対応点又は対応領域の位置関係に基づいて幾何変換パラメーターを算出し、カメラの動きに起因する第1の移動量を推定する第1の推定手段と、
前記幾何変換パラメーターに基づいて、前記第1の移動量を減算することで、前記第1のフレーム画像及び前記第2のフレーム画像から被写体領域を検出し、前記検出された被写体領域に基づいて被写体の動きに起因する第2の移動量を推定する第2の推定手段と
を備える映像処理装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015000630 | 2015-01-06 | ||
JP2015000630 | 2015-01-06 | ||
PCT/JP2016/000013 WO2016111239A1 (ja) | 2015-01-06 | 2016-01-05 | 映像処理装置、映像処理方法及びプログラム記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2016111239A1 true JPWO2016111239A1 (ja) | 2017-10-19 |
JP6708131B2 JP6708131B2 (ja) | 2020-06-10 |
Family
ID=56355932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016568360A Active JP6708131B2 (ja) | 2015-01-06 | 2016-01-05 | 映像処理装置、映像処理方法及びプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6708131B2 (ja) |
WO (1) | WO2016111239A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020059425A1 (ja) * | 2018-09-18 | 2020-03-26 | 株式会社日立国際電気 | 撮像装置、映像処理方法、およびプログラム |
JP7538583B2 (ja) | 2022-06-08 | 2024-08-22 | パナソニックオートモーティブシステムズ株式会社 | 検知システムおよび検知方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3778606B2 (ja) * | 1996-02-16 | 2006-05-24 | 日本放送協会 | 画質改善装置 |
JP3847006B2 (ja) * | 1998-08-26 | 2006-11-15 | 富士通株式会社 | 画像表示制御装置及び記録媒体 |
JP4870990B2 (ja) * | 2006-01-20 | 2012-02-08 | 日本放送協会 | 映像分析装置、視覚刺激危険度判定プログラム及び映像分析システム |
JP5091098B2 (ja) * | 2008-12-10 | 2012-12-05 | 富士フイルム株式会社 | 画像合成装置、画像合成方法および画像合成プログラム |
-
2016
- 2016-01-05 JP JP2016568360A patent/JP6708131B2/ja active Active
- 2016-01-05 WO PCT/JP2016/000013 patent/WO2016111239A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2016111239A1 (ja) | 2016-07-14 |
JP6708131B2 (ja) | 2020-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108335279B (zh) | 图像融合和hdr成像 | |
TWI767985B (zh) | 用於處理影像性質圖的方法及裝置 | |
US9202263B2 (en) | System and method for spatio video image enhancement | |
US9390511B2 (en) | Temporally coherent segmentation of RGBt volumes with aid of noisy or incomplete auxiliary data | |
JP4210954B2 (ja) | 画像処理方法、画像処理方法のプログラム、画像処理方法のプログラムを記録した記録媒体及び画像処理装置 | |
US11910001B2 (en) | Real-time image generation in moving scenes | |
KR20130102626A (ko) | 글로벌 모션에 기초한 심도 추정 | |
JP2010258710A (ja) | 動きベクトル検出装置およびその制御方法、ならびに撮像装置 | |
US8803947B2 (en) | Apparatus and method for generating extrapolated view | |
CN105931213B (zh) | 基于边缘检测和帧差法的高动态范围视频去鬼影的方法 | |
JP2018124890A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
KR20150145725A (ko) | Ldr 비디오 시퀀스의 동적 범위 확장을 위한 방법 및 장치 | |
TW200919366A (en) | Image generation method and apparatus, program therefor, and storage medium for string the program | |
JP2018195084A (ja) | 画像処理装置及び画像処理方法、プログラム、記憶媒体 | |
KR20200045682A (ko) | Hlbp 디스크립터 정보를 이용한 시차 최소화 스티칭 장치 및 방법 | |
JP6365355B2 (ja) | 画像生成装置および画像生成方法 | |
JP6708131B2 (ja) | 映像処理装置、映像処理方法及びプログラム | |
JP2015138399A (ja) | 画像処理装置、画像処理方法、及びコンピュータプログラム | |
US11164286B2 (en) | Image processing apparatus, image processing method, and storage medium | |
US9106926B1 (en) | Using double confirmation of motion vectors to determine occluded regions in images | |
Geo et al. | Globalflownet: Video stabilization using deep distilled global motion estimates | |
JP6582994B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
Van Vo et al. | High dynamic range video synthesis using superpixel-based illuminance-invariant motion estimation | |
JP2018180964A (ja) | 画像処理装置及び画像処理方法 | |
JP2018200506A (ja) | 画像処理装置および画像処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170621 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20181214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200227 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200421 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200504 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6708131 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |