JP3740394B2 - High dynamic range video generation method and apparatus, execution program for the method, and recording medium for the execution program - Google Patents

High dynamic range video generation method and apparatus, execution program for the method, and recording medium for the execution program Download PDF

Info

Publication number
JP3740394B2
JP3740394B2 JP2001227008A JP2001227008A JP3740394B2 JP 3740394 B2 JP3740394 B2 JP 3740394B2 JP 2001227008 A JP2001227008 A JP 2001227008A JP 2001227008 A JP2001227008 A JP 2001227008A JP 3740394 B2 JP3740394 B2 JP 3740394B2
Authority
JP
Japan
Prior art keywords
time
image
imaging
long
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001227008A
Other languages
Japanese (ja)
Other versions
JP2003046857A (en
Inventor
秋彦 橋本
康雄 石榑
隆幸 沖村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2001227008A priority Critical patent/JP3740394B2/en
Publication of JP2003046857A publication Critical patent/JP2003046857A/en
Application granted granted Critical
Publication of JP3740394B2 publication Critical patent/JP3740394B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、ダイナミックレンジの高い被写体を白トビや黒つぶれなく映像にする高ダイナミックレンジ映像の生成方法および生成装置に関するものであり、主な利用分野として映像産業や計測産業があげられる。
【0002】
【従来の技術】
映像を記録するには様々な方法があるが、今日ではCCDを用いた撮像装置が広く使われている。しかし、CCDは銀塩フィルム等に比べると明暗のダイナミックレンジが小さい欠点があった。これに対して撮像時間を可変に制御できる電子シャッタ付きのCCDを用いて短時間撮像と長時間撮像を交互に繰り返し、隣り合う2画像から高ダイナミックレンジ映像を生成する方法や装置が提案されている。例えば、特開昭63−306779号や特開平6−141229号の技術がこれに該当する。
【0003】
【発明が解決しようとする課題】
しかしながら、図1(a)の11に示すように両方法とも、2フレームの原画像から1フレームの画像を合成するためにフレームレートが半減してしまい、滑らかな動きの動画映像が生成できない欠点があった。特開平6−141229号では実質倍速で動作する専用CCDを開発してこの問題を解決しているが、この方法では汎用のCCDを使えないため汎用性やコストに問題がある。また、CCDの画素数が増大すると倍速動作そのものが技術的に困難となるため、HDTVやUDTV等の高解像度映像には適用できない問題もある。
【0004】
また、静止画撮影ではなく動画撮影する場合には、動く被写体の高輝度領域または低輝度領域の位置、形状が時間と共に変動するが、従来の方法では異なる時刻に撮像された画像をそのまま合成しているため、合成部の輪郭領域において偽信号の発生による画質劣化が生じてしまう問題がある。特開平6−141229号では2枚の画像を輝度値に応じて徐々に混合することにより画質劣化が視覚的に目立たないよう工夫しているが、根本的な解決方法とはなっていない。
【0005】
本発明は、上記従来の技術の問題点を解決するために為されたものであり、原画像と同フレームレートで高ダイナミックレンジ映像を生成できる方法及び装置を提供することを課題とする。さらに、その生成の際に、映像の切り替わり点や、画像内容がフレーム間で不連続的に変化する場合にも、高品質の高ダイナミックレンジ映像を生成できる方法及び装置を提供することを課題とする。
【0007】
【課題を解決するための手段】
上記の課題を解決するための手段として、本発明の請求項1では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Aと、短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Bの異なる2つの合成過程とを有し、長時間撮像時刻における画像については過程Aを実行し、短時間撮像時刻における画像については過程Bを実行し、
過程Aにおいて、長時間撮像の画像内にあるオーバーフロー領域Xを検出する過程Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、2領域の輪郭線のパターンマッチングを行う過程とを有し、過程Cにより長時間撮像画像を領域Xとそれ以外の領域X-に分離し、過程Dにより直後または直前の短時間撮像画像から領域Yを抜き出し、パターンマッチングを行う過程により領域Yの位置、形状を領域Xの位置、形状に合わせた後で画素の輝度値の倍率補正を行った後に、領域X-と合成することによって、長時間撮像と直後または直前の短時間撮像の2画像から長時間撮像時刻における画像を合成することを特徴とする高ダイナミックレンジ映像の生成方法を用いる。
【0008】
また、本発明の請求項2では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Aと、短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Bの異なる2つの合成過程とを有し、長時間撮像時刻における画像については過程Aを実行し、短時間撮像時刻における画像については過程Bを実行し、
過程Bにおいて、長時間撮像の画像内にあるオーバーフロー領域Xを検出する過程Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、2領域の輪郭線のパターンマッチングを行う過程とを有し、過程Dにより短時間撮像画像を領域Yとその他の領域Y-に分離し、過程Cにより直後または直前の長時間撮像画像を領域Xとその他の領域X-に分離し、パターンマッチングを行う過程により領域X-の位置、形状を領域Y-の位置、形状に合わせた後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直後または直前の長時間撮像の2画像から短時間撮像時刻における画像を合成することを特徴とする高ダイナミックレンジ映像の生成方法を用いる。
【0009】
また、本発明の請求項3では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、長時間撮像と直前の短時間撮像と直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Eと、短時間撮像と直前の長時間撮像と直後の長時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Fの異なる2つの合成過程とを有し、長時間撮像時刻における画像については過程Eを実行し、短時間撮像時刻における画像については過程Fを実行することを特徴とする高ダイナミックレンジ映像の生成方法を用いる。
【0010】
また、本発明の請求項4では、過程Eでは、長時間撮像の画像中にあるオーバーフロー領域Xを検出する過程Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、2領域の画像のパターンマッチングを行う過程とを有し、過程Cにより長時間撮像の画像を領域Xとそれ以外の領域X-に分離し、過程Dにより直前の短時間撮像の画像から領域Y1を切り出し、過程Dにより直後の短時間撮像の画像から領域Y2を切り出し、2領域の画像のパターンマッチングを行う過程により2領域である領域Y1と領域Y2から長時間撮像時刻における中間画像Y3を生成し、中間画像Y3から領域Xと位置的に重なる領域を切り出し、画素の輝度値の倍率補正を行った後で、領域X-と合成することによって、長時間撮像と直前の短時間画像と直後の短時間撮像の3画像から長時間撮像時刻における画像を合成することを特徴とする請求項3に記載の高ダイナミックレンジ映像の生成方法を用いる。
【0011】
また、本発明の請求項5では、過程Fでは、長時間撮像の画像中にあるオーバーフロー領域Xを検出する過程Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、2領域の画像のパターンマッチングを行う過程とを有し、過程Dにより短時間撮像の画像を領域Yとその他の領域Y-に分離し、過程Cにより直前の長時間撮像の画像を領域X1とその他の領域X1-に分離し、過程Cにより直後の長時間撮像の画像を領域X2とその他の領域X2-に分離し、2領域の画像のパターンマッチングを行う過程により2領域である領域X1-と領域X2-から短時間撮像時刻における中間画像X3-を生成し、中間画像X3-から領域Y-と位置的に重なる領域を切り出した後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直前の長時間撮像と直後の短時間撮像の3画像から短時間撮像時刻における画像を合成することを特徴とする請求項3に記載の高ダイナミックレンジ映像の生成方法を用いる。
【0014】
また、本発明の請求項6では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Aと、短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Bの異なる2つの合成器とを有し、長時間撮像時刻における画像については合成器Aを用い、短時間撮像時刻における画像については合成器Bを用い、
合成器Aは、長時間撮像の画像内にあるオーバーフロー領域Xを検出する検出器Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、2領域の輪郭線のパターンマッチングを行うパターンマッチング器とを有し、検出器Cを用いて長時間撮像画像を領域Xとそれ以外の領域X-に分離し、検出器Dを用いて直後または直前の短時間撮像画像から領域Yを抜き出し、該パターンマッチング器を用いて領域Yの位置、形状を領域Xの位置、形状に合わせた後で画素の輝度値の倍率補正を行った後に、領域X-と合成することによって、長時間撮像と直後または直前の短時間撮像の2画像から長時間撮像時刻における画像を合成するものであることを特徴とする高ダイナミックレンジ映像の生成装置を用いる。
【0015】
また、本発明の請求項7では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Aと、短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Bの異なる2つの合成器とを有し、長時間撮像時刻における画像については合成器Aを用い、短時間撮像時刻における画像については合成器Bを用い、
合成器Bは、長時間撮像の画像内にあるオーバーフロー領域Xを検出する検出器Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、2領域の輪郭線のパターンマッチングを行うパターンマッチング器とを有し、検出器Dを用いて短時間撮像画像を領域Yとその他の領域Y-に分離し、検出器Cを用いて直後または直前の長時間撮像画像を領域Xとその他の領域X-に分離し、該パターンマッチング器を用いて領域X-の位置、形状を領域Y-の位置、形状に合わせた後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直後または直前の長時間撮像の2画像から短時間撮像時刻における画像を合成するものであることを特徴とする高ダイナミックレンジ映像の生成装置を用いる。
【0016】
また、本発明の請求項8では、撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、長時間撮像と直前の短時間撮像と直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Eと、短時間撮像と直前の長時間撮像と直後の長時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Fの異なる2つの合成器とを有し、長時間撮像時刻における画像については合成器Eを用い、短時間撮像時刻における画像については合成器Fを用いることを特徴とする高ダイナミックレンジ映像の生成装置を用いる。
【0017】
また、本発明の請求項9では、合成器Eは、長時間撮像の画像中にあるオーバーフロー領域Xを検出する検出器Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、2領域の画像のパターンマッチングを行うパターンマッチング器とを有し、検出器Cを用いて長時間撮像の画像を領域Xとそれ以外の領域X-に分離し、検出器Dを用いて直前の短時間撮像の画像から領域Y1を切り出し、検出器Dを用いて直後の短時間撮像の画像から領域Y2を切り出し、領域Y1と領域Y2から該パターンマッチング器を用いて長時間撮像時刻における中間画像Y3を生成し、中間画像Y3から領域Xと位置的に重なる領域を切り出し、画素の輝度値の倍率補正を行った後で、領域X-と合成することによって、長時間撮像と直前の短時間画像と直後の短時間撮像の3画像から長時間撮像時刻における画像を合成するものであることを特徴とする請求項8に記載の高ダイナミックレンジ映像の生成装置を用いる。
【0018】
また、本発明の請求項10では、合成器Fは、長時間撮像の画像中にあるオーバーフロー領域Xを検出する検出器Cと、短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、2領域の画像のパターンマッチングを行うパターンマッチング器とを有し、検出器Dを用いて短時間撮像の画像を領域Yとその他の領域Y-に分離し、検出器Cを用いて直前の長時間撮像の画像を領域X1とその他の領域X1-に分離し、検出器Cを用いて直後の長時間撮像の画像を領域X2とその他の領域X2-に分離し、領域X1-と領域X2-から該パターンマッチング器を用いて短時間撮像時刻における中間画像X3-を生成し、中間画像X3-から領域Y-と位置的に重なる領域を切り出した後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直前の長時間撮像と直後の短時間撮像の3画像から短時間撮像時刻における画像を合成するものであることを特徴とする請求項8に記載の高ダイナミックレンジ映像の生成装置を用いる。
【0020】
また、本発明の請求項11では、請求項1から請求項5のいずれか1項に記載の高ダイナミックレンジ映像の生成方法における過程を、コンピュータに実行させるためのプログラムとしたことを特徴とする高ダイナミックレンジ映像の生成方法の実行プログラムを用いる。
【0021】
また、本発明の請求項12では、請求項1から請求項5のいずれか1項に記載の高ダイナミックレンジ映像の生成方法における過程を、コンピュータに実行させるためのプログラムとし、該プログラムを、該コンピュータが読み取りできる記録媒体に記録したことを特徴とする高ダイナミックレンジ映像の生成方法の実行プログラムを記録した記録媒体を用いる。
【0022】
本発明の方法および装置は、図1(b)の12および図1(c)の13に示すように、異なる二つの合成アルゴリズムを交互に使用することにより、実質的には1フレームの原画像から1フレームの高ダイナミックレンジ画像を生成することによって同フレームレートで高ダイナミックレンジ映像を提供する。
【0023】
請求項1、2は、図1(b)の12に示すように連続する2フレームの画像から高ダイナミックレンジ画像を合成する方法を提供するものであり、請求項3は図1(c)の13に示すように連続する3フレームの画像から高ダイナミックレンジ画像を合成する方法を提供するものである。
【0024】
請求項3の方法は、より高精度に画像を予測生成して高ダイナミックレンジ画像を合成する方法であり、通常、請求項1、2の方法より高品質に画像合成できるが、連続する3フレームの画像を必ず必要とするため、映像の切り替わり点や、画像内容がフレーム間で不連続的に変化する場合には適用できないか、または無理に適用しても低品質の合成画像しか得られない等の問題点もある。
【0025】
そこで、前記のフレーム間の不連続性を2画像の類似度を調べることによって検出し、請求項3の方法と請求項1、2の方法を適応的に切り替えて処理を行う方法を提供する。
【0026】
請求項6,7は図1(b)の12に示すように連続する2フレームの画像から高ダイナミックレンジ画像を合成する装置を提供するものであり、請求項8は図1(c)の13に示すように連続する3フレームの画像から高ダイナミックレンジ画像を合成する装置を提供するものである。
【0027】
請求項8の装置は、より高精度に画像を予測生成して高ダイナミックレンジ画像を合成する装置であり、通常、請求項6,7の装置より高品質に画像合成できるが、連続する3フレームの画像を必ず必要とするため、映像の切り替わり点や、画像内容がフレーム間で不連続的に変化する場合には適用できないか、または無理に適用しても低品質の合成画像しか得られない等の問題点もある。
【0028】
そこで、前記のフレーム間の不連続性を2画像の類似度を調べることによって検出し、請求項8の方法と請求項6,7の方法を適応的に切り替えて処理を行う装置を提供する。
【0029】
以上のように、本発明の方法および装置は、パターンマッチングを行う手段を用いた動画補償や輪郭線フィッティングを行うことによって撮像時刻に得られるはずの画像を予測生成した上で該画像を用いて高ダイナミックレンジ画像を合成する。これより動画撮影の場合にも高品質な高ダイナミックレンジ映像を提供する。
【0030】
図2を用いて本発明の請求項1、2の方法の作用を説明する。図2の21から23は撮像時間を交互に変えて撮像した映像データの一部であり、21と23が長時間撮像画像、22が短時間撮像画像である。211と231は被写体の露出オーバーでオーバーフローを起こした領域、212と232はそれ以外の領域である。221は長時間撮像であったならオーバーフローすると予測される領域、222はそれ以外の領域である。
【0031】
請求項1、2の方法に従うと、過程Aによって221が211の位置、形状に合わされて223となり、223は26で画素の輝度値の倍率補正を受けた後に212と組み合わされて24が合成され、過程Bによって232が222の位置、形状に合わされて233となり、27で画素の輝度値の倍率補正を受けた後の221と組み合わされて25が合成される。
【0032】
なお、ここではある時刻における画像と直後の画像より該時刻における画像を合成する作用を説明しているが、例えば、25を合成する場合、232のかわりに212を222の位置、形状に合わせるのごとく、直後の画像を使う部分を直前の画像に置き換えるだけで、ある時刻における画像と直前の画像より該時刻における画像を合成できることは言うまでもない。
【0033】
請求項1の方法に従うと、過程Aは221と211の輪郭線のパターンマッチングを行って221の211に対する位置、形状の変移量28を算出し、221に対して28を逆に作用させることによって223を生成し、26で画素の輝度値の倍率補正をした後に、212と組み合わして24を合成する作用を行う。
【0034】
請求項2の方法に従うと、過程Bは232と222の輪郭線のパターンマッチングを行い、232の222に対する位置、形状の変移量29を算出し、232に対して29を逆に作用させることによって233を生成し、27で輝度値の倍率補正をした後の221と組み合わして25を合成する作用を行う。
【0035】
次に、図3を用いて本発明の請求項3の方法の作用を説明する。図3の31から34は撮像時間を交互に変えて撮像した映像データの一部であり、31と33が短時間撮像画像、32と34が長時間撮像画像である。321と341は被写体の露出オーバーでオーバーフローを起こした領域、322と342はそれ以外の領域である。311と331は長時間撮像であったならオーバーフローすると予測される領域、312と332はそれ以外の領域である。
【0036】
請求項3の方法に従うと、過程Eによって311と331から321の位置、形状に合った323が生成され、37で画素の輝度値の倍率補正をした後に、322と組み合わして35が合成され、過程Fによって322と342から332の位置、形状に合った333が生成され、38で輝度値の倍率補正をした後の331と組み合わせることによって36が合成される。
【0037】
次に、図4を用いて請求項4の方法の作用を説明する。なお、図中で図3と同一部分は図3の番号をつけている。初めに311と331の画像のパターンマッチングを行い、311の331に対する画像の位置、形状の変移量41を計算する。311と331に対して該変移量より32の撮像時刻における中間画像42と43を予測生成し、両画像を合成することによって中間画像44を生成する。次に44から321内に位置する領域を切り出すことによって323を生成する。323は37で輝度値の倍率補正をした後に322と組み合わせることによって35を合成する作用を行う。
【0038】
次に、図5を用いて請求項5の方法の作用を説明する。なお、図中で図3と同一部分は図3の番号をつけている。初めに322と342の画像のパターンマッチングを行い、322の342に対する画像の位置、形状の変移量51を計算する、322と342に対して該変移量より33の撮像時刻における中間画像52と53を予測生成し、両画像を合成することによって中間画像54を生成する。次に54から332内に位置する領域を切り出すことによって333を生成する。333と38で輝度値の倍率補正をした後の331を組み合わせることによって36を合成する作用を行う。
【0039】
請求項4または請求項5の方法では、画像のパターンマッチングを行う時に二つのパターンの類似度も算出する。類似度が小さいか、またはパターンマッチングの対象となる領域がなかった場合には、請求項4の方法においては311と321間の類似度と321と331間の類似度を輪郭線のパターンマッチングによって比較し、321と331間の類似度の方が大きかった場合には、請求項3の方法の代わりに32と33を用いた直後の画像を用いる請求項1、2の方法に切り替え、311と321間の類似度の方が大きかった場合には、請求項3の方法の代わりに31と32を用いた直前の画像を用いる請求項1、2の方法に切り替える作用を行う。請求項5の方法においては322と332間の類似度と332と342間の類似度を輪郭線のパターンマッチングによって比較し、332と342間の類似度の方が大きかった場合には、請求項3の方法の代わりに33と34を用いた直後の画像を用いる請求項1、2の方法に切り替え、322と332間の類似度の方が大きかった場合には、請求項3の方法の代わりに32と33を用いる直前の画像を用いる請求項1、2の方法に切り替える作用を行う。
【0040】
図2を用いて本発明の請求項6,7の装置の作用を説明する。図2の21から23は撮像時間を交互に変えて撮像した映像データの一部であり、21と23が長時間撮像画像、22が短時間撮像画像である。211と231は被写体の露出オーバーでオーバーフローを起こした領域、212と232はそれ以外の領域である。221は長時間撮像であったならオーバーフローすると予測される領域、222はそれ以外の領域である。
【0041】
請求項6,7の装置に従うと、合成器Aによって221が211の位置、形状に合わされて223となり、223は26で画素の輝度値の倍率補正を受けた後に212と組み合わされて24が合成され、合成器Bによって232が222の位置、形状に合わされて233となり、27で画素の輝度値の倍率補正を受けた後の221と組み合わされて25が合成される。
【0042】
なお、ここではある時刻における画像と直後の画像より該時刻における画像を合成する作用を説明しているが、例えば、25を合成する場合、232のかわりに212を222の位置、形状に合わせるのごとく、直後の画像を使う部分を直前の画像に置き換えるだけである時刻における画像と直前の画像より該時刻における画像を合成できることは言うまでもない。
【0043】
請求項6の装置に従うと、合成器Aは221と211の輪郭線のパターンマッチングを行って221の211に対する位置、形状の変移量28を算出し、221に対して28を逆に作用させることによって223を生成し、26で画素の輝度値の倍率補正をした後に、212と組み合わして24を合成する作用を行う。
【0044】
請求項7の装置に従うと、合成器Bは232と222の輪郭線のパターンマッチングを行い、232の222に対する位置、形状の変移量29を算出し、232に対して29を逆に作用させることによって233を生成し、27で輝度値の倍率補正をした後の221と組み合わして25を合成する作用を行う。
【0045】
次に、図3を用いて本発明の請求項8の装置の作用を説明する。図3の31から34は撮像時間を交互に変えて撮像した映像データの一部であり、31と33が短時間撮像画像、32と34が長時間撮像画像である。321と341は被写体の露出オーバーでオーバーフローを起こした領域、322と342はそれ以外の領域である。311と331は長時間撮像であったならオーバーフローすると予測される領域、312と332はそれ以外の領域である。
【0046】
請求項8の装置に従うと、合成器Eによって311と331から321の位置、形状に合った323が生成され、37で画素の輝度値の倍率補正をした後に、322と組み合わされて35が合成され、合成器Fによって322と342から332の位置、形状に合った333が生成され、38で輝度値の倍率補正をした後の331と組み合わせることによって36が合成される。
【0047】
次に、図4を用いて請求項9の装置の作用を説明する。なお、図中で図3と同一部分は図3の番号をつけている。初めに311と331の画像のパターンマッチングをパターンマッチング器で行い、311の331に対する画像の位置、形状の変移量41を計算する。311と331に対して該変移量より32の撮像時刻における中間画像42と43を予測生成し、両画像を合成することによって中間画像44を生成する。次に44から321内に位置する領域を切り出すことによって323を生成する。323は37で輝度値の倍率補正をした後に322と組み合わせることによって35を合成する作用を行う。
【0048】
次に、図5を用いて請求項10の装置の作用を説明する。なお、図中で図3と同一部分は図3の番号をつけている。初めに322と342の画像のパターンマッチングをパターンマッチング器で行い、322の342に対する画像の位置、形状の変移量51を計算する。322と342に対して該変移量より33の撮像時刻における中間画像52と53を予測生成し、両画像を合成することによって中間画像54を生成する。次に54から332内に位置する領域を切り出すことによって333を生成する。333と38で輝度値の倍率補正をした後の331を組み合わせることによって36を合成する作用を行う。
【0049】
請求項9または請求項10の装置では、画像のパターンマッチングをパターンマッチング器で行う時に二つのパターンの類似度も算出し、類似度を類似度評価器で評価する。類似度が小さいか、またはパターンマッチングの対象となる領域がなかった場合には、請求項9の装置においては311と321間の類似度と321と331間の類似度を輪郭線のパターンマッチングによって比較し、321と331間の類似度の方が大きかった場合には、請求項8の装置の代わりに32と33を用いた直後の画像を用いる請求項6,7の装置の処理動作に切り替え、311と321間の類似度の方が大きかった場合には、請求項8の装置の代わりに31と32を用いた直前の画像を用いる請求項6,7の装置の処理動作に切り替える作用を行う。請求項10の装置においては322と332間の類似度と332と342間の類似度を輪郭線のパターンマッチングによって比較し、332と342間の類似度の方が大きかった場合には、請求項8の装置の代わりに33と34を用いた直後の画像を用いる請求項6,7の装置の処理動作に切り替え、322と332間の類似度の方が大きかった場合には、請求項8の装置の代わりに32と33を用いる直前の画像を用いる請求項6,7の装置の処理動作に切り替える作用を行う。
【0050】
【発明の実施の形態】
以下、本発明の実施の形態について図を用いて詳細に説明する。
【0051】
本発明の請求項1、2の方法の一実施形態を図6に示す。図6の61は原映像データ格納過程、62はデータ出力切り替え過程、63は請求項1の方法の過程Aを実現する一実施形態、64は請求項2の方法の過程Bを実現する一実施形態、65は出力データ格納過程である。
【0052】
631と632は領域分離過程であり、請求項1の方法における過程Cと過程Dの一実施形態である。633と634は輪郭形状抽出過程、635は輪郭形状のパターンマッチング過程、636は領域の移動、変形過程、637は画素の輝度値倍率補正過程、638は画像合成過程である。
【0053】
641と642は領域分離過程であり、請求項2の方法における過程Cと過程Dの一実施形態である。643と634は輪郭線抽出過程、645は輪郭線形状のパターンマッチング過程、646は領域の移動、変形過程、647は画素の輝度値倍率補正過程、648は画像合成過程である。
【0054】
本実施形態による処理の流れを説明する。なお、本実施形態では原画像データはダイナミックレンジが8bit(画素の輝度値のとりうる値は0から255)で逆ガンマ補正済みとする。また、長時間撮像時間と短時間撮像時間の撮像時間比をkとし、ある時刻における画像と直後の画像データより該時刻における画像データを合成する処理について説明する。
【0055】
61では交互に撮像時間を変えて撮った映像データを蓄えている。なお、本方法を実時間処理で行える場合には、61のかわりに直接撮像時間可変カメラの出力(ガンマ補正済み)過程であっても構わない。
【0056】
62は61から逐次、画像と直後フレームの画像を取り出し、該2画像が長時間撮像画像、短時間撮像画像の順番であるなら長時間撮像画像を631に短時間撮像画像を632に出力する。また、短時間撮像画像、長時間撮像画像の順番であるなら長時間撮像画像を641に短時間撮像画像を642に出力する。
【0057】
631と632は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。631の指定値を255とすることによって、631はオーバーフロー領域Xを633に出力し、それ以外の領域X-(図面ではXバーを表す)を638に出力する。632の指定値を256/kとすることによって、632は長時間撮像であったならオーバーフローすると予測される領域Yを634と636に出力する。
【0058】
633と634は、公知の方法であるチェイン符号化法(参考文献:画像解析ハンドブックpp.579−580)で領域の輪郭線を抽出して635に出力する。
【0059】
635は633と634から出力された輪郭形状をフーリエ記述子(参考文献:画像解析ハンドブックpp.581−582)表現データに変換し、該データを比較してパターンマッチングを行うことによって両輪郭線形状の位置、形状の変移量データをアフィン変換行列データとして出力する(参考文献:画像処理アルゴリズムの最新動向、別冊OplusE、pp.58−72)。なお、輪郭線形状のパターンマッチング方法には様々な公知の方法があり、本発明の特許請求の範囲は本実施形態に限定されるものではない。また、2フレーム間に起きる輪郭線形状の移動変形量は微小なので変形は考慮せず全領域均一に移動するとして2領域の重心座標の変移量を変移データとして出力する簡略方法もあり、変移量データの内容は本実施形態に限定されるものではない。
【0060】
また、本実施形態ではパターンマッチング対象領域が一つの場合について説明しているが、633と634で輪郭線が複数抽出されている場合は各々の輪郭線で囲まれた領域の重心座標を求め、最も重心座標の近い物同士で上記のパターンマッチングを行うことによって容易に複数の処理に拡張できることは言うまでもない。
【0061】
636は635から出力されたアフィン変換行列データに基づいて、領域Yの位置、形状を領域Xの位置、形状に合わせて637に出力する。
【0062】
637は画素の輝度値をk倍して638に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0063】
638は637の出力と631から出力された領域X-を一枚の画像データに合成し、これを65で格納する。これによって長時間撮像と直後の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0064】
641と642は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。641の指定値を255とすることによって、641はオーバーフローしていない領域X-を643と646に出力する。642の指定値を256/kとすることによって、642は長時間撮像であったならオーバーフローすると予測される領域Yを647に、それ以外の領域Y-(図面ではYバーを表す)を644に出力する。
【0065】
643と644は公知の方法であるチェイン符号化法で領域の輪郭線を抽出して645に出力する。
【0066】
645は643と644から出力された輪郭形状をフーリエ記述子表現データに変換し、該データを比較してパターンマッチングを行うことによって両輪郭線形状の位置、形状の変移量データをアフィン変換行列データとして出力する。
【0067】
646は645から出力されたアフィン変換行列データに基づいて、領域X-の位置、形状を領域Y-の位置、形状に合わせて648に出力する。
【0068】
647は642から出力された領域Yの画素の輝度値をk倍して648に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0069】
648は646の出力と647の出力を一枚の画像データに合成し、これを65で格納する。これによって短時間撮像と直後の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0070】
本発明の請求項3から5の方法の一実施形態を図7に示す。図7の71は原映像データ格納過程、72はデータ出力切り替え過程、73は請求項4の方法の過程Eを実現する一実施形態、74は請求項5の方法の過程Fを実現する一実施形態、75は出力データ格納過程である。
【0071】
731と732と733は、領域分離過程であり、請求項4の方法における過程Cと過程Dの一実施形態である。734は中間画像の予測生成過程、735は領域切り出し過程、736は画素の輝度値の倍率補正過程、737は画像合成過程である。
【0072】
741と742と743は、領域分離過程であり、請求項5の方法における過程Cと過程Dの一実施形態である。744は中間画像の予測生成過程、745は領域切り出し過程、746は画素の輝度値の倍率補正過程、747は画像合成過程である。
【0073】
本実施形態による処理の流れを説明する。なお、本実施形態では原画像データはダイナミックレンジが8bit(画素の輝度値のとりうる値は0から255)で逆ガンマ補正済みとする。また、長時間撮像時間と短時間撮像時間の撮像時間比をkとし、ある時刻における画像と直後の画像データより該時刻における画像データを合成する処理について説明する。
【0074】
71では交互に撮像時間を変えて撮った映像データを蓄えている。なお、本方法を実時間処理で行える場合には71のかわりに直接撮像時間可変カメラの出力(ガンマ補正済み)過程であっても構わない。
【0075】
72は71から逐次、画像と直前及び直後フレームの画像を取り出し、該3画像が短時間撮像画像、長時間撮像画像、短時間撮像画像の順番であるなら、直前の短時間撮像画像を731に、長時間撮像画像を732に、直後の短長間画像を733に出力する。また、該3画像が長時間撮像画像、短時間撮像画像、長時間撮像画像の順番であるなら、直前の長短間撮像画像を741に、短時間撮像画像を742に、直後の長時間画像を743に出力する。
【0076】
731と732と733は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。731の指定値を256/kとすることによって、731は長時間撮像であったならオーバーフローすると予測される領域Yを734に出力する。732の指定値を255とすることによって、732はオーバーフロー領域Xを735に、それ以外の領域X-を737に出力する。733の指定値を256/kとすることによって、733は長時間撮像であったならオーバーフローすると予測される領域Yを734に出力する。
【0077】
734は731と733から出力された領域Yの画像から短時間撮像時刻における中間画像をデュアルプライム予測法(参考文献:デジタル放送・インターネット技術のための情報圧縮技術、pp.218−219)で予測生成し、735に出力する。デュアルプライム予測法は作用の説明で述べた図4の41、42、43、44の作用を一括して行う。請求項4の方法に記載した画像のパターンマッチングの作用はデュアルプライム予測法内のBMA(ブロックマッチングアルゴリズム)にて行われる。
【0078】
なお、画像のパターンマッチングにはBMA以外にも様々な公知の方法があり、画像の予測生成方法もデュアルプライム予測法以外の公知の方法があり、本発明の特許請求の範囲は本実施形態に限定されるものではない。
【0079】
735は734から出力された中間画像のうち、732から出力された領域Xに含まれる領域の画像のみを切り出して736に出力する。
【0080】
736は735から出力された画像の画素の輝度値をk倍して737に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0081】
737は732の出力と736の出力を一枚の画像データに合成し、これを75で格納する。これによって長時間撮像と直前及び直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0082】
741と742と743は、入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。741の指定値を255とすることによって、741はオーバーフロー領域X-を744に出力する。742の指定値を256/kとすることによって、742は長時間撮像であったなら、オーバーフローすると予測される領域Yを746に、それ以外の領域Y-を745に出力する。743の指定値を255とすることによって、743はオーバーフロー領域X-を744に出力する。
【0083】
744は、741と743から出力された領域X-の画像から短時間撮像時刻における中間画像をデュアルプライム予測法で予測生成し、745に出力する。デュアルプライム予測法は、作用の説明で述べた図5の51、52、53、54の作用を一括して行う。請求項5の方法に記載した画像のパターンマッチングの作用はデュアルプライム予測法内のBMA(ブロックマッチングアルゴリズム)にて行われる。
【0084】
745は、744から出力された中間画像のうち、742から出力された領域Y-に含まれる領域の画像のみを切り出して747に出力する。
【0085】
746は742から出力された画像の画素の輝度値をk倍して747に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0086】
747は745の出力と746の出力を一枚の画像データに合成し、これを75で格納する。これによって短時間撮像と直前及び直後の短時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0087】
本発明の方法の一実施形態を図8に示す。図8において図7と全く同じ作用を行う過程を示す部分は図7と同じ番号を付している
【0088】
図8において、71は原映像データ格納過程、72はデータ出力切り替え過程、731、732、733は領域分離過程、734はデュアルプライム予測法に基づく中間画像予測生成過程である。831から835は734の内部処理過程を示しており、831はBMAに基づく動きベクトル抽出過程、832は動き補償ベクトル生成過程、833は前フレーム画像を用いた中間画像予測生成過程、834は後フレーム画像を用いた中間画像予測生成過程、835は中間画像合成過程である。836は画像パターンの類似度判定過程、81は直前の短時間撮像画像の領域Xの輪郭線と長時間撮像画像の領域Yの輪郭線のパターンマッチング過程、82は直後の短時間撮像画像の領域Xの輪郭線と長時間撮像画像の領域Yの輪郭線のパターンマッチング過程、83は処理動作選択過程、84は長時間撮像画像と直前の短時間撮像画像から高ダイナミックレンジ画像を合成する請求項1の方法を実現する過程、85は長時間撮像画像と直後の短時間撮像画像から高ダイナミックレンジ画像を合成する請求項1、2の方法を実現する過程、75は出力データ格納過程である。
【0089】
本図を用いて短時間撮像画像、長時間撮像画像、短時間撮像画像の順に並んだ3フレームの画像より本発明の方法を実施することによって、請求項3の方法から直前または直後の画像を用いる請求項1、2の方法に切り替える例について説明する。
【0090】
71から連続する3フレームの画像データを72は取り出し、直前の短時間撮像画像は731に、長時間撮像画像は732に、直後の短時間撮像画像は733に出力する。
【0091】
731は長時間撮像であったならオーバーフローしたであろうと予測される領域Yを831と81に出力する。733は長時間撮像であったならオーバーフローしたであろうと予測される領域Yを831と82に出力する。
【0092】
734はデュアルプライム予測法に基づく中間画像予測生成過程であり、内部ブロックの831から835は公知の処理過程、836は本発明の方法を構成する新規の過程である。初めに従来の734の動作について簡単に説明する。
【0093】
831は、2領域の画像をブロックパターンマッチング法でパターンマッチングを行い、各々のブロック毎に変移ベクトルを算出して832に、また、2領域のマッチング結果の残差であるMAE(平均値絶対値誤差)を836に出力する。832は長時間撮像画像の撮像時刻における画像にするための変移量(補償ベクトル)を直前の画像と直後の画像毎に別々に算出して833と834に出力する。
【0094】
833は補償ベクトルを用いて731から出力された領域Yを部分中間画像に移動変形し835に出力する。834は補償ベクトルを用いて733から出力された領域Yを部分中間画像に移動変形し835に出力する。835は2枚の部分中間画像を合成することによって1枚の中間画像を生成する。以降、請求項3の方法であるならば図7の735、736、737の流れに沿って処理が進んでいく。
【0095】
次に、本発明の方法の動作が行われる場合について説明する。836は831から出力された各ブロック毎のMAEを調べ、予め与えられた閾値vに対して、全てのブロックのMAEの総和>vであるならば2領域の類似度が低いと判定して734以降の処理を停止し、81と82に動作を命令する。
【0096】
なお、類似度はMAEばかりでなく、公知の方法であるMSE(平均二乗誤差)や相互相関関数で与えることもできる。また、類似度判定もこれら誤差成分のみで判断するだけでなく、831で生成された各ブロック毎の移動ベクトルの分散から判定することもできるが、2領域の類似度を表現できる手法であるならば類似度の表現方法および判定方法は本実施形態に限定されるものではない。
【0097】
81は2領域の輪郭線形状を抽出し輪郭線のパターンマッチングをすることによって移動変形量を算出し83に出力する。なお、輪郭線の抽出処理や移動変形量の実施方法は図6の実施形態に述べた符号化チェイン法およびフーリエ記述子変換法によるパターンマッチングとする。
【0098】
82は2領域の輪郭線形状を抽出し輪郭線のパターンマッチングをすることによって移動変形量を算出し83に出力する。
【0099】
83は類似度判定を行うことにより、直前の短時間撮像画像と直後の短時間撮像画像のうちより長時間撮像画像と類似度の高い画像を決定する。類似度判定は移動変形量のより小さい方とする。例えば移動変形量が図6で説明した実施形態のごとくアフィン変換行列で与えられる場合には、正規化した行列の全要素の値の二乗和を算出してこれを類似度とする。なお、二乗和以外にも類似度を表現することは可能であり、また、移動変形量がアフィン変換行列式以外のデータ構造で与えられる場合にもそれに対応して類似度の表現式は変化するが、2輪郭線間の類似度を表現する式であるならば本実施形態に限定されるものではない。
【0100】
83は、81から計算した類似度が82から計算した類似度より大きい場合、長時間撮像画像と直前の短時間撮像画像の類似度がより大きいと判定し84を動作させる。82から計算した類似度がより大きい場合、長時間撮像画像と直後の短時間撮像画像の類似度がより大きいと判定し85を動作させる。
【0101】
84は長時間撮像画像と直前の短時間撮像撮像画像から図6の実施形態の過程によって高ダイナミックレンジ画像を合成し、75で格納する。
【0102】
85は長時間撮像画像と直後の短時間撮像撮像画像から図6の実施形態の過程によって高ダイナミックレンジ画像を合成し、75で格納する。
【0103】
本実施形態の方法を用いた場合の原映像から高ダイナミックレンジ映像を生成する説明図を図9に示す。91から96は短時間撮像画像と長時間撮像画像の交互に繰り返しで構成される原映像である。ここで91、93、95は長時間撮像画像、92、94、96は短時間撮像画像である。フレーム94以降でスポットライトが照明され画像内の明るい部分の領域形状が大幅に変化しているとする。
【0104】
本実施形態を用いると、基本的には3フレームの画像から1フレームの高ダイナミックレンジ画像を合成する請求項3の方法が使われる(97、98、911、912)が、99の処理においては92と94で類似度が低いと判定され、93とより類似度の高い画像は92であると判定されて、93と直前の92の2フレームの画像から1フレームの高ダイナミックレンジ画像を合成する請求項1、2の方法が使われる。910の処理においては93と95で類似度が低いと判定され、94とより類似度の高い画像は95であると判定されて、94と直後の95の2フレームの画像から1フレームの高ダイナミックレンジ画像を合成する請求項1、2の方法が使われる。
【0105】
本発明の請求項6,7の装置の一実施形態を図10に示す。図10の101は磁気記録装置またはメモリ等で構成される原映像データ格納器、102はCPUを用いた制御装置、103は請求項6の装置の合成器Aを実現する一実施形態、104は請求項7の装置の合成器Bを実現する一実施形態、105は磁気記録装置またはメモリ等で構成される出力データ格納器である。
【0106】
1031と1032は領域分離器であり、請求項6の装置における検出器Cと検出器Dの一実施形態である。1033と1034は輪郭形状抽出器、1035は輪郭形状のパターンマッチング器、1036は領域の移動、変形器、1037は画素の輝度値倍率補正器、1038は画像合成器である。
【0107】
1041と1042は領域分離器であり、請求項7の装置における検出器Cと検出器Dの一実施形態である。1043と1034は輪郭線抽出器、1045は輪郭線形状のパターンマッチング器、1046は領域の移動、変形器、1047は画素の輝度値倍率補正器、1048は画像合成器である。
【0108】
本実施形態による処理の流れを説明する。なお、本実施形態では原画像データはダイナミックレンジが8bit(画素の輝度値のとりうる値は0から255)で逆ガンマ補正済みとする。また、長時間撮像時間と短時間撮像時間の撮像時間比をkとし、ある時刻における画像と直後の画像データより該時刻における画像データを合成する処理について説明する。
【0109】
101は交互に撮像時間を変えて撮った映像データを蓄えている。なお、本装置を実時間処理動作できる場合には101を省略して撮像時間可変カメラの出力(ガンマ補正済み)を直接102に接続しても構わない。
【0110】
102は101から逐次、画像と直後フレームの画像を取り出し、該2画像が長時間撮像画像、短時間撮像画像の順番であるなら、長時間撮像画像を1031に、短時間撮像画像を1032に出力する。また、短時間撮像画像、長時間撮像画像の順番であるなら、長時間撮像画像を1041に、短時間撮像画像を1042に出力する。
【0111】
1031と1032は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。1031の指定値を255とすることによって、1031はオーバーフロー領域Xを1033に出力し、それ以外の領域X-を1038に出力する。1032の指定値を256/kとすることによって、1032は長時間撮像であったならオーバーフローすると予測される領域Yを1034と1036に出力する。
【0112】
1033と1034は公知の方法であるチェイン符号化法(参考文献:画像解析ハンドブックpp.579−580)で領域の輪郭線を抽出して1035に出力する。
【0113】
1035は1033と1034から出力された輪郭形状をフーリエ記述子(参考文献:画像解析ハンドブックpp.581−582)表現データに変換し、該データを比較してパターンマッチングを行うことによって両輪郭線形状の位置、形状の変移量データをアフィン変換行列データとして出力する(参考文献:画像処理アルゴリズムの最新動向、別冊OplusE、pp.58−72)。なお、輪郭線形状のパターンマッチング装置には様々な公知の装置があり。輪郭線が抽出できるのであれば本発明の特許請求の範囲は本実施形態に限定されるものではない。また、2フレーム間に起きる輪郭線形状の移動変形量は微小なので変形は考慮せず、全領域均一に移動するとして2領域の重心座標の変移量を変移データとして出力する簡略化した装置(例:MUSE方式HiVisionのエンコーダ)もあり、本発明の特許請求の範囲を本実施形態に限定するものではない。
【0114】
また、本実施形態ではパターンマッチング対象領域が一つの場合について説明しているが、1033と1034で輪郭線が複数抽出されている場合は各々の輪郭線で囲まれた領域の重心座標を求め、最も重心座標の近い物同士で上記のパターンマッチングを行うことによって、容易に複数の処理に拡張できることは言うまでもない。
【0115】
1036は1035から出力されたアフィン変換行列データに基づいて、領域Yの位置、形状を領域Xの位置、形状に合わせて1037に出力する。
【0116】
1037は画素の輝度値をk倍して1038に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0117】
1038は1037の出力と1031から出力された領域X-を一枚の画像データに合成して105に格納する。これによって長時間撮像と直後の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0118】
1041と1042は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。1041の指定値を255とすることによって、1041はオーバーフローしていない領域X-を1043と1046に出力する。1042の指定値を256/kとすることによって、1042は長時間撮像であったならオーバーフローすると予測される領域Yを1047に、それ以外の領域Y-を1044に出力する。
【0119】
1043と1044は公知の方法であるチェイン符号化法で領域の輪郭線を抽出して1045に出力する。
【0120】
1045は1043と1044から出力された輪郭形状をフーリエ記述子表現データに変換し、該データを比較してパターンマッチングを行うことによって両輪郭線形状の位置、形状の変移量データをアフィン変換行列データとして出力する。
【0121】
1046は1045から出力されたアフィン変換行列データに基づいて、領域X-の位置、形状を領域Y-の位置、形状に合わせて1048に出力する。
【0122】
1047は1042から出力された領域Yの画素の輝度値をk倍して1048に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0123】
1048は1046の出力と1047の出力を一枚の画像データに合成して105に格納する。これによって短時間撮像と直後の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0124】
本発明の請求項8から10の装置の一実施形態を図11に示す。図11の111は磁気記録装置またはメモリ等で構成される原映像データ格納器、112はCPUを用いた制御装置、113は請求項9の装置の合成器Eを実現する一実施形態、114は請求項10の装置の合成器Fを実現する一実施形態、115は磁気記録装置またはメモリ等で構成される出力データ格納器である。
【0125】
1131と1132と1133は領域分離器であり、請求項9の装置における検出器Cと検出器Dの一実施形態である。1134は中間画像の予測生成器、1135は領域切り出し器、1136は画素の輝度値の倍率補正器、1137は画像合成器である。
【0126】
1141と1142と1143は領域分離器であり、請求項9の装置における検出器Cと検出器Dの一実施形態である。1144は中間画像の予測生成器、1145は領域切り出し器、1146は画素の輝度値の倍率補正器、1147は画像合成器である。
【0127】
本実施形態による処理の流れを説明する。なお、本実施形態では原画像データはダイナミックレンジが8bit(画素の輝度値のとりうる値は0から255)で逆ガンマ補正済みとする。また、長時間撮像時間と短時間撮像時間の撮像時間比をkとし、ある時刻における画像と直後の画像データより該時刻における画像データを合成する処理について説明する。
【0128】
111は交互に撮像時間を変えて撮った映像データを蓄えている。なお、本装置を実時間処理動作できる場合には111を省略して撮像時間可変カメラの出力(ガンマ補正済み)を直接112に接続しても構わない。
【0129】
112は111から逐次、画像と直前及び直後フレームの画像を取り出し、該3画像が短時間撮像画像、長時間撮像画像、短時間撮像画像の順番であるなら、直前の短時間撮像画像を1131に、長時間撮像画像を1132に、直後の短長間画像を1133に出力する。また、該3画像が長時間撮像画像、短時間撮像画像、長時間撮像画像の順番であるなら、直前の長短間撮像画像を1141に、短時間撮像画像を1142に、直後の長時間画像を1143に出力する。
【0130】
1131と1132と1133は入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。1131の指定値を256/kとすることによって、1131は長時間撮像であったならオーバーフローすると予測される領域Yを1134に出力する。1132の指定値を255とすることによって、1132はオーバーフロー領域Xを1135にそれ以外の領域X-を1137に出力する。1133の指定値を256/kとすることによって、1133は長時間撮像であったならオーバーフローすると予測される領域Yを1134に出力する。
【0131】
1134は1131と1133から出力された領域Yの画像から短時間撮像時刻における中間画像をデュアルプライム予測演算器(参考文献:デジタル放送・インターネット技術のための情報圧縮技術、pp.218−219)で予測生成し1135に出力する。デュアルプライム予測演算器は作用の説明で述べた図4の41、42、43、44の作用を一括して行う。デュアルプライム演算器内のBMA(ブロックマッチングアルゴリズム)演算器が請求項9の装置に記載した画像のパターンマッチング器に該当する。
【0132】
なお、画像のパターンマッチング器にはBMA以外にも様々な公知の装置があり、画像の予測生成器もデュアルプライム予測演算器以外の公知の装置があり、画像のパターンマッチングを用いて予測生成を行う装置であるなら本発明の特許請求の範囲を本実施形態に限定するものではない。
【0133】
1135は1134から出力された中間画像のうち、1132から出力された領域Xに含まれる領域の画像のみを切り出して1136に出力する。
【0134】
1136は1135から出力された画像の画素の輝度値をk倍して1137に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され。同一輝度部分を撮像した画素の輝度値は同一となる。
【0135】
1137は1132の出力と1136の出力を一枚の画像データに合成して115に格納する。これによって長時間撮像と直前及び直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0136】
1141と1142と1143は、入力した画像から指定した値以上の画素の輝度値を有する領域と該値未満の画素の輝度値を有する領域に分離して出力する。1141の指定値を255とすることによって、1141はオーバーフロー領域X-を1144に出力する。1142の指定値を256/kとすることによって、1142は長時間撮像であったならオーバーフローすると予測される領域Yを1146に、それ以外の領域Y-を1145に出力する。1143の指定値を255とすることによって、1143はオーバーフロー領域X-を1144に出力する。
【0137】
1144は、1141と1143から出力された領域X-の画像から短時間撮像時刻における中間画像をデュアルプライム予測演算器で予測生成し、1145に出力する。デュアルプライム予測演算器は作用の説明で述べた図5の51、52、53、54の作用を一括して行う。デュアルプライム演算器内のBMA(ブロックマッチングアルゴリズム)演算器が請求項10の装置に記載した画像のパターンマッチング器に該当する。
【0138】
1145は1144から出力された中間画像のうち、1142から出力された領域Y-に含まれる領域の画像のみを切り出して1147に出力する。
【0139】
1146は1142から出力された画像の画素の輝度値をk倍して1147に出力する。これにより撮像時間の異なる2フレームの画像間の感度差が補正され、同一輝度部分を撮像した画素の輝度値は同一となる。
【0140】
1147は1145の出力と1146の出力を一枚の画像データに合成して115に格納する。これによって短時間撮像と直前及び直後の短時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像が合成される。
【0141】
本発明の装置について短時間撮像画像、長時間撮像画像、短時間撮像画像の順に並んだ3フレームの画像を処理する場合の実施形態を図12に示す。図12において図11と全く同じ装置を示す部分は図11と同じ番号を付している。
【0142】
図12において、111は磁気記録装置またはメモリ等で構成される原映像データ格納器、112はCPUを用いた制御装置、1131、1132、1133は領域分離器、1134はデュアルプライム予測法に基づく中間画像予測生成器である。1231から1235は1134の内部処理を行う装置を示しており、1231はBMAに基づく動きベクトル抽出器、1232は動き補償ベクトル生成器、1233は前フレーム画像を用いた中間画像予測生成器、1234は後フレーム画像を用いた中間画像予測生成器、1235は中間画像合成器である。1236は画像パターンの類似度判定器、121は直前の短時間撮像画像の領域Xの輪郭線と長時間撮像画像の領域Yの輪郭線のパターンマッチング器、122は直後の短時間撮像画像の領域Xの輪郭線と長時間撮像画像の領域Yの輪郭線のパターンマッチング器、123は処理動作選択器、124は長時間撮像画像と直前の短時間撮像画像から高ダイナミックレンジ画像を合成する請求項6,7の装置、125は長時間撮像画像と直後の短時間撮像画像から高ダイナミックレンジ画像を合成する請求項6,7の装置、115は磁気記録装置またはメモリ等で構成される出力データ格納器である。
【0143】
本図を用いて短時間撮像画像、長時間撮像画像、短時間撮像画像の順に並んだ3フレームの画像より本発明の装置を用いて、請求項8の装置から直前または直後の画像を用いる請求項6,7の装置に処理動作を切り替える例について説明する。
【0144】
111から連続する3フレームの画像を112は取り出し、直前の短時間撮像画像は1131に、長時間撮像画像は1132に、直後の短時間撮像画像は1133に出力する。1131は長時間撮像であったならオーバーフローしたであろうと予測される領域Yを1231と121に出力する。1133は長時間撮像であったならオーバーフローしたであろうと予測される領域Yを1231と122に出力する。
【0145】
1134はデュアルプライム予測法に基づく中間画像予測生成装置であり、内部ブロックの1231から1235は公知の処理装置、1236は本発明の装置を構成する新規の装置である。初めに従来の1134の動作について簡単に説明する。
【0146】
1231は2領域の画像をBMA法でパターンマッチングを行い、各々のブロック毎に変移ベクトルを算出して1232に、また、2領域のマッチング結果の残差であるMAE(平均値絶対値誤差)を1236に出力する。1232は長時間撮像画像の撮像時刻における画像にするための変移量(補償ベクトル)を直前の画像と直後の画像毎に別々に算出して1233と1234に出力する。
【0147】
1233は補償ベクトルを用いて1131から出力された領域Yを部分中間画像に移動変形し1235に出力する。1234は補償ベクトルを用いて1133から出力された領域Yを部分中間画像に移動変形し1235に出力する。1235は2枚の部分中間画像を合成することによって1枚の中間画像を生成する。以降、請求項8の装置で処理が続く場合には図11の1135、1136、1137の流れに沿って処理が進んでいく。
【0148】
次に、本発明の装置の動作が行われる場合について説明する。1236は1231から出力された各ブロック毎のMAEを調べ、予め与えられた閾値vに対して、全てのブロックのMAEの総和>vであるならば2領域の類似度が低いと判定して1132の処理を停止し、121と122に動作を命令する。
【0149】
121は1131から出力された領域Yと1132から出力された領域Xについて、輪郭線を符号化チェイン法による輪郭線抽出器によって抽出し、フーリエ記述子変換法によるパターンマッチング器によって移動変形量を算出し123に出力する。
【0150】
122は1133から出力された領域Yと1132から出力された領域Xについて、輪郭線を符号化チェイン法による輪郭線抽出器によって抽出し、フーリエ記述子変換法によるパターンマッチング器によって移動変形量を算出し123に出力する。
【0151】
123は移動変形量を用いて類似度判定を行うことにより、直前の短時間撮像画像と直後の短時間撮像画像のうちより長時間撮像画像と類似度の高い画像を決定する。類似度判定は移動変形量のより小さい方とする。例えば移動変形量が図10で説明した実施形態のごとくアフィン変換行列で与えられる場合には、正規化した行列の全要素の値の二乗和を算出してこれを類似度とする。なお、二乗和以外にも類似度を表現することは可能であり。また、移動変形量がアフィン変換行列式以外のデータ構造で与えられる場合にもそれに対応して類似度の表現式は変化するが、2輪郭線の類似度を表現する式であるならば本発明の特許請求の範囲は本実施形態に限定されるものではない。
【0152】
123は、121から計算した類似度が122から計算した類似度より大きい場合、長時間撮像画像と直前の短時間撮像画像の類似度がより大きいと判定し124を動作させる。122から計算した類似度がより大きい場合、長時間撮像画像と直後の短時間撮像画像の類似度がより大きいと判定し125を動作させる。
【0153】
124は長時間撮像画像と直前の短時間撮像撮像画像から図10の実施形態の装置によって高ダイナミックレンジ画像を合成し115に格納する。
【0154】
125は長時間撮像画像と直後の短時間撮像撮像画像から図10の実施形態の装置によって高ダイナミックレンジ画像を合成し115に格納する。
【0155】
なお、図10〜図12で示した装置における各部の一部もしくは全部の機能をコンピュータのプログラムで構成し、そのプログラムをコンピュータを用いて実行して本発明を実現することができること、あるいは、図6〜図8で説明した処理過程による方法の処理の手順をコンピュータのプログラムで構成し、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータにその処理の手順を実行させるためのプログラムを、そのコンピュータが読み取り可能な記録媒体、例えば、FD(フロッピーディスク(登録商標))や、MO、ROM、メモリカード、CD、DVD、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
【0156】
【発明の効果】
従来の方法および装置では、図1(a)の11に示すように2フレームの画像より単一の合成アルゴリズムで1フレームの画像を合成するためフレームレートが半減してしまうが、本発明の方法および装置は、請求項1、2の方法と請求項6,7の装置では図1(b)の12、請求項3の方法と請求項8の装置では図1(c)の13のように、どちらも原映像と同フレームレートで高ダイナミックレンジ映像を生成することができる。
【0157】
また、本発明の請求項1、2の方法および請求項6,7の装置では、図2に示したように撮像時刻の異なる2フレームの画像をそのまま合成せず、同じ撮像時刻に得られるはずの画像を予測生成した後に合成するため、動画像であっても不自然な画像を合成しない。
【0158】
更に、請求項1、2の方法および請求項6,7の装置は、輪郭線部の動きと輪郭線内の動きが同じ時に正確な合成映像が提供できるが、請求項3の方法および請求項8の装置は輪郭線部の動きと輪郭線内部の動きが別々の場合でも正確な合成画像を提供することができるので、より高品質な高ダイナミックレンジ映像を提供できる。
【0159】
一方で、請求項3の方法および請求項8の装置は、連続する3フレームの映像を必要とするため、映像の切り替わり点や、画像内容がフレーム間で不連続的に変化するような場合には適用できないか、または無理に適用しても低品質の合成画像しか得られない等の問題点もある。そこで、本発明の方法および装置において、前記の不連続な部分を2画像の類似度を調べることによって検出し、請求項3の方法と請求項1、2の方法あるいは請求項8の装置と請求項6,7の装置を適応的に切り替えて処理を行うことによって、図9に示したように画像間で不連続な部分が存在しても常に最適な画像合成方法および装置を選択して高ダイナミックレンジ映像を合成することが可能となる。
【図面の簡単な説明】
【図1】 (1)は従来の方法を、(2)は本発明の請求項1、2の方法を、(3)は本発明の請求項3の方法を、それぞれ用いた場合の原画像データと合成画像データの対応を説明した図である。
【図2】 本発明の請求項1、2の方法および請求項6、7の装置の作用を説明した図である。
【図3】 本発明の請求項3の方法および請求項8の装置の作用を説明した図である。
【図4】 本発明の請求項4の方法および請求項9の装置の作用を説明した図である。
【図5】 本発明の請求項5の方法および請求項10の装置の作用を説明した図である。
【図6】 本発明の請求項1、2の方法の一実施形態を示した図である。
【図7】 本発明の請求項3、4、5の方法の一実施形態を示した図である。
【図8】 本発明の方法の一実施形態を示した図である。
【図9】 本発明の方法および装置を用いた場合の原画像データと合成画像データの対応関係を示した図である。
【図10】 本発明の請求項6、7の装置の一実施形態を示した図である。
【図11】 本発明の請求項8、9、10の装置の一実施形態を示した図である。
【図12】 本発明の装置の一実施形態を示した図である。
[0001]
BACKGROUND OF THE INVENTION
  TECHNICAL FIELD The present invention relates to a high dynamic range video generation method and a generation apparatus that make a subject with a high dynamic range a video without white spots or blackouts.Application fieldsAnd video industry and measurement industry.
[0002]
[Prior art]
There are various methods for recording an image, but today, an imaging device using a CCD is widely used. However, the CCD has a drawback that the dynamic range of light and dark is smaller than that of a silver salt film or the like. On the other hand, a method and apparatus for generating a high dynamic range video from two adjacent images by alternately repeating short-time imaging and long-time imaging using a CCD with an electronic shutter capable of variably controlling the imaging time has been proposed. Yes. For example, techniques disclosed in Japanese Patent Laid-Open Nos. 63-3067779 and 6-141229 correspond to this.
[0003]
[Problems to be solved by the invention]
However, as indicated by 11 in FIG. 1 (a), both methods have the disadvantage that the frame rate is halved in order to synthesize one frame image from two frames of original images, and a moving image with smooth motion cannot be generated. was there. In Japanese Patent Laid-Open No. 6-141229, a dedicated CCD that operates at a substantially double speed is developed to solve this problem. However, this method has a problem in versatility and cost because a general-purpose CCD cannot be used. In addition, since the double speed operation itself becomes technically difficult when the number of pixels of the CCD increases, there is a problem that it cannot be applied to high resolution images such as HDTV and UDTV.
[0004]
In addition, when shooting moving images rather than still images, the position and shape of the moving subject's high-luminance or low-luminance regions vary with time, but the conventional method combines images captured at different times. Therefore, there is a problem that image quality deterioration occurs due to generation of a false signal in the outline region of the synthesis unit. In Japanese Patent Laid-Open No. 6-141229, the two images are gradually mixed according to the luminance value so that the image quality deterioration is not visually noticeable. However, this is not a fundamental solution.
[0005]
The present invention has been made to solve the above-described problems of the prior art, and an object thereof is to provide a method and apparatus capable of generating a high dynamic range video at the same frame rate as the original image. Furthermore, it is an object of the present invention to provide a method and apparatus capable of generating a high-quality, high dynamic range video even when video switching points and image contents change discontinuously between frames. To do.
[0007]
[Means for Solving the Problems]
  As means for solving the above-mentioned problems, in claim 1 of the present invention,In a method for generating a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging device capable of variably controlling the imaging time, longer than two images of long-time imaging and short-time imaging immediately after or immediately before Two different synthesis processes, a process A for synthesizing a high dynamic range image at a time imaging time, and a process B for synthesizing a high dynamic range image at a short imaging time than two images of a short imaging and an immediately following or immediately preceding long imaging. The process A is executed for the image at the long imaging time, the process B is executed for the image at the short imaging time,
  Process AInA process C for detecting an overflow area X in a long-time image, a process D for detecting an area Y that is predicted to overflow if a long-time image is captured in a short-time image, and a contour of two areas Line pattern matching, and in step C, a long-time captured image is converted into a region X and a region X other than that.-The region Y is extracted from the short-time captured image immediately after or immediately before in the process D, and the luminance value of the pixel is adjusted after the position and shape of the area Y are matched with the position and shape of the area X by the process of pattern matching. After magnification correction, region X-And combining the image at the long-time imaging time from the two images of the long-time imaging and the short-time imaging immediately after or immediately before.HighA dynamic range video generation method is used.
[0008]
  Further, in claim 2 of the present invention,In a method for generating a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging device capable of variably controlling the imaging time, longer than two images of long-time imaging and short-time imaging immediately after or immediately before Two different synthesis processes, a process A for synthesizing a high dynamic range image at a time imaging time, and a process B for synthesizing a high dynamic range image at a short imaging time than two images of a short imaging and an immediately following or immediately preceding long imaging. The process A is executed for the image at the long imaging time, the process B is executed for the image at the short imaging time,
  In process B,A process C for detecting an overflow region X in a long-time image, a process D for detecting a region Y that is predicted to overflow if a long-time image is captured in a short-time image, and an outline of two regions The pattern matching of the region Y, and in the step D, the short-time captured image is converted into the region Y and the other region Y.-In Step C, a long-time image immediately after or immediately before is divided into a region X and another region X.-Region X in the process of pattern matching-The position and shape of the region Y-Are combined with the region Y after the magnification correction of the luminance value of the pixel after being matched with the position and shape of the image, so that the short-time imaging and the long-time imaging immediately after or immediately before the short-time imaging can be performed at the short-time imaging time. Characterized by compositing imagesHighA dynamic range video generation method is used.
[0009]
  In addition, the present inventionClaim 3In a method for generating a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging device capable of variably controlling the imaging time, long-time imaging, immediately preceding short-time imaging, and immediately following short-time imaging A process E for synthesizing a high dynamic range image at a long-time imaging time from three captured images, and a high dynamic range image at a short-time imaging time from three images of a short-time imaging, a long-time imaging immediately before and a long-time imaging immediately after A high dynamic range characterized in that the process E is executed for an image at a long imaging time, and the process F is executed for an image at a short imaging time. Use video generation methods.
[0010]
  In addition, the present inventionClaim 4Then, in the process E, a process C for detecting an overflow area X in a long-time image, and a process D for detecting an area Y that is predicted to overflow if the long-time image is taken for a long time. A process of performing pattern matching of the images of the two areas, and an image captured for a long time by the process C is divided into the area X and the other areas X-In the process D, the area Y1 is cut out from the immediately preceding short-time image, and the area Y2 is cut out from the short-time image immediately after the process D to perform pattern matching between the two areas. An intermediate image Y3 at a long imaging time is generated from a certain area Y1 and area Y2, a region that overlaps with the area X is cut out from the intermediate image Y3, and after correcting the magnification of the luminance value of the pixel, the area X-And combining the images at the long-time imaging time from the three images of the long-time imaging, the immediately preceding short-time image, and the immediately following short-time imaging.Claim 3The high dynamic range video generation method described in 1) is used.
[0011]
  In addition, the present inventionClaim 5Then, in the process F, a process C for detecting an overflow area X in a long-time image, and a process D for detecting an area Y that is predicted to overflow if the long-time image is captured for a long time. And pattern matching of images in two areas, and in step D, an image captured for a short time is converted into an area Y and another area Y.-In Step C, the image captured for the long time immediately before is divided into the region X1 and the other region X1.-The image of the long-time image immediately after the process C is divided into the region X2 and the other region X2.-Region X1 which is two regions by the process of performing pattern matching of the images of the two regions.-And region X2-Intermediate image X3 at a short imaging time from-To generate an intermediate image X3-To region Y-3 regions, which are short-time imaging, immediately preceding long-time imaging, and immediately following short-time imaging, are combined with region Y after pixel luminance value magnification correction is performed. It is characterized by synthesizing images at a short imaging time fromClaim 3The high dynamic range video generation method described in 1) is used.
[0014]
  In addition, the present inventionClaim 6ThenIn an apparatus that generates a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging apparatus capable of variably controlling the imaging time, it is longer than two images of long-time imaging and short-time imaging immediately after or immediately before Two different types of synthesizer A that synthesizes a high dynamic range image at a time imaging time and a synthesizer B that synthesizes a high dynamic range image at a short imaging time than two images of a short time imaging and a long time imaging immediately after or immediately before. A synthesizer, using a synthesizer A for an image at a long imaging time, and using a synthesizer B for an image at a short imaging time,
  The synthesizer A includes a detector C that detects an overflow area X in a long-time image, and a detector D that detects an area Y that is predicted to overflow if the long-time image is captured for a long time. And a pattern matching unit that performs pattern matching of the contour lines of the two regions, and using the detector C, a long-time captured image is converted into the region X and the other region X.-After extracting the region Y from the short-time captured image immediately after or immediately before using the detector D, and adjusting the position and shape of the region Y to the position and shape of the region X using the pattern matching device, the pixel After correcting the magnification of the luminance value of the region X,-And the image at the long-time imaging time is synthesized from the two images of the long-time imaging and the short-time imaging immediately after or immediately before.HighA dynamic range video generation device is used.
[0015]
  In addition, the present inventionClaim 7ThenIn an apparatus that generates a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging apparatus capable of variably controlling the imaging time, it is longer than two images of long-time imaging and short-time imaging immediately after or immediately before Two different types of synthesizer A that synthesizes a high dynamic range image at a time imaging time and a synthesizer B that synthesizes a high dynamic range image at a short imaging time than two images of a short time imaging and a long time imaging immediately after or immediately before. A synthesizer, using a synthesizer A for an image at a long imaging time, and using a synthesizer B for an image at a short imaging time,
  The synthesizer B includes a detector C that detects an overflow area X in a long-time image, and a detector D that detects an area Y that is predicted to overflow if the long-time image is captured for a long time. And a pattern matching unit that performs pattern matching of the contour lines of the two regions, and using the detector D, the short-time captured image is converted into the region Y and the other regions Y.-And using the detector C, a long-time image immediately after or immediately before the region X and the other regions X-Region X using the pattern matcher-The position and shape of the region Y-Are combined with the region Y after the magnification correction of the luminance value of the pixel after being matched with the position and shape of the image, so that the short-time imaging and the long-time imaging immediately after or immediately before the short-time imaging can be performed at the short-time imaging time. Characterized by combining imagesHighA dynamic range video generation device is used.
[0016]
  In addition, the present inventionClaim 8In a device that generates a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging device that can variably control the imaging time, long-time imaging, immediately preceding short-time imaging, and immediately following short-time imaging A synthesizer E that synthesizes a high dynamic range image at a long imaging time from the three captured images, and a high dynamic range image at a short imaging time than the three images of the short imaging, the immediately preceding long imaging, and the immediately following long imaging. The synthesizer F has two different synthesizers. The synthesizer E is used for an image at a long imaging time, and the synthesizer F is used for an image at a short imaging time. A dynamic range video generation device is used.
[0017]
  In addition, the present inventionClaim 9Then, the synthesizer E detects the overflow region X in the long-time image, and detects the region Y that is predicted to overflow if the long-time image is captured for a long time. And a pattern matching unit that performs pattern matching of the images of the two regions. The detector C is used to capture an image captured for a long time using the region X and the other regions X.-The region Y1 is cut out from the immediately preceding short-time image using the detector D, the region Y2 is cut out from the immediately short-time image using the detector D, and the pattern is extracted from the region Y1 and the region Y2. An intermediate image Y3 at a long imaging time is generated using a matching device, a region that overlaps with the region X is cut out from the intermediate image Y3, and after correcting the magnification of the pixel luminance value, the region X-And the image at the long-time imaging time from the three images of the long-time imaging, the immediately preceding short-time image, and the immediately following short-time imaging.Claim 8The high dynamic range video generation apparatus described in 1) is used.
[0018]
  In addition, the present inventionClaim 10Then, the synthesizer F detects the overflow area X in the long-time image, and detects the area Y that is predicted to overflow if the long-time image is captured for a long time. And a pattern matching unit that performs pattern matching of the images of the two regions, and using the detector D, an image captured for a short period of time is displayed in the region Y and the other regions Y.-And using the detector C, the previous long-time image is taken as the region X1 and the other region X1.-The image of the long-time image immediately after using the detector C is divided into the region X2 and the other region X2.-Into region X1-And region X2-To the intermediate image X3 at a short imaging time using the pattern matching device-To generate an intermediate image X3-To region Y-3 regions, which are short-time imaging, immediately preceding long-time imaging, and immediately following short-time imaging, are combined with region Y after pixel luminance value magnification correction is performed. It is characterized by combining images at a short imaging time fromClaim 8The high dynamic range video generation apparatus described in 1) is used.
[0020]
  In addition, the present inventionClaim 11Then, from claim 1Claim 5An execution program for a high dynamic range video generation method is used, wherein the process in the high dynamic range video generation method according to any one of the above is a program for causing a computer to execute the process.
[0021]
  In addition, the present inventionClaim 12Then, from claim 1Claim 5A high dynamic range comprising: a program for causing a computer to execute the process in the high dynamic range video generation method according to any one of the above, and the program recorded on a recording medium readable by the computer. A recording medium on which an execution program of a video generation method is recorded is used.
[0022]
The method and apparatus of the present invention can effectively generate an original image of one frame by alternately using two different synthesis algorithms as shown in 12 of FIG. 1 (b) and 13 of FIG. 1 (c). A high dynamic range image is provided at the same frame rate by generating a one frame high dynamic range image.
[0023]
  Claims 1, 2Provides a method of synthesizing a high dynamic range image from two consecutive frames of image as shown at 12 in FIG.Claim 3Provides a method for synthesizing a high dynamic range image from three consecutive frames as shown at 13 in FIG.
[0024]
  Claim 3This method is a method of synthesizing a high dynamic range image by predicting and generating an image with higher accuracy.Claims 1, 2Although it is possible to synthesize images with higher quality than the above method, it is necessary to have a continuous three-frame image, so it cannot be applied when the video switching point or the image content changes discontinuously between frames, or There is also a problem that even if applied forcibly, only a low-quality composite image can be obtained.
[0025]
  ThereforeThe aboveDetect discontinuities between frames by examining the similarity of two images,Claim 3And the methodClaims 1, 2A method for performing processing by adaptively switching the methods is provided.
[0026]
  Claims 6, 7Provides a device for synthesizing a high dynamic range image from two consecutive frames as shown at 12 in FIG.Claim 8Provides a device for synthesizing a high dynamic range image from three consecutive frames as shown at 13 in FIG.
[0027]
  Claim 8Is an apparatus that synthesizes a high dynamic range image by predicting and generating an image with higher accuracy.Claims 6, 7Although it is possible to synthesize images with higher quality than the above-mentioned apparatus, since it is necessary to have three consecutive frames of images, it cannot be applied when video switching points or image contents change discontinuously between frames, or There is also a problem that even if applied forcibly, only a low-quality composite image can be obtained.
[0028]
  ThereforeThe aboveDetect discontinuities between frames by examining the similarity of two images,Claim 8And the methodClaims 6, 7An apparatus for performing processing by adaptively switching the method is provided.
[0029]
As described above, the method and apparatus according to the present invention predicts and generates an image that should be obtained at the imaging time by performing moving image compensation and contour fitting using means for performing pattern matching, and then uses the image. Synthesize high dynamic range images. In this way, high-quality, high dynamic range images are also provided for video shooting.
[0030]
  Using FIG.Claims 1, 2The operation of this method will be described. Reference numerals 21 to 23 in FIG. 2 denote a part of video data picked up by alternately changing the imaging time. Reference numerals 21 and 23 denote long-time images, and 22 denotes a short-time image. 211 and 231 are areas where overflow has occurred due to overexposure of the subject, and 212 and 232 are other areas. Reference numeral 221 denotes an area that is predicted to overflow if imaging is performed for a long time, and 222 is an area other than that.
[0031]
  Claims 1, 2According to the above method, in step A, 221 is adjusted to the position and shape of 211 in step A to become 223, 223 is subjected to magnification correction of the luminance value of the pixel in step 26, and then combined with 212 and 24 is combined. Is combined with the position and shape of 222 to become 233, and combined with 221 after being subjected to magnification correction of the luminance value of the pixel at 27, 25 is synthesized.
[0032]
Here, the operation of combining the image at a certain time with the image immediately after that is described. For example, when 25 is combined, 212 is adjusted to the position and shape 222 instead of 232. Thus, it is needless to say that an image at a certain time and an image at the previous time can be synthesized by simply replacing the portion that uses the immediately following image with the previous image.
[0033]
  Claim 1According to the above method, the process A performs the pattern matching of the contour lines of 221 and 211, calculates the position and shape shift amount 28 of 221 with respect to 211, and generates 223 by reversing 28 with respect to 221. Then, after correcting the magnification of the luminance value of the pixel at 26, an operation of combining 24 with 212 is performed.
[0034]
  Claim 2According to the above method, the process B performs the pattern matching of the contour lines of 232 and 222, calculates the position and shape shift amount 29 of 232 with respect to 222, and generates 233 by acting 29 on 232 in reverse. Then, the operation of combining 25 is performed in combination with 221 after correcting the magnification of the luminance value in 27.
[0035]
  Next, using FIG.Claim 3The operation of this method will be described. Reference numerals 31 to 34 in FIG. 3 are a part of video data picked up by alternately changing the imaging time. 31 and 33 are short-time captured images, and 32 and 34 are long-time captured images. Reference numerals 321 and 341 denote areas where overflow has occurred due to overexposure of the subject, and reference numerals 322 and 342 denote other areas. Reference numerals 311 and 331 are areas that are predicted to overflow if imaging is performed for a long time, and 312 and 332 are other areas.
[0036]
  Claim 3According to the above method, the process E generates 323 corresponding to the position and shape of 311 and 331 to 321, and after correcting the magnification of the luminance value of the pixel in 37, 35 is synthesized in combination with 322, and the process F 322 and 342 to 332 corresponding to the position and shape are generated from 322 and 342, and 36 is synthesized by combining with 331 after correcting the magnification of the luminance value in 38.
[0037]
  Next, using FIG.Claim 4The operation of this method will be described. In the figure, the same parts as those in FIG. First, pattern matching between the images 311 and 331 is performed, and the amount of change 41 in the position and shape of the image with respect to 311 331 is calculated. The intermediate images 42 and 43 at the imaging time of 32 are predicted and generated with respect to 311 and 331 from the shift amount, and the intermediate image 44 is generated by combining both images. Next, 323 is generated by cutting out an area located within 44 to 321. 323 performs the function of combining 35 by combining the 322 after correcting the magnification of the luminance value in 37.
[0038]
  Next, using FIG.Claim 5The operation of this method will be described. In the figure, the same parts as those in FIG. First, pattern matching between the images 322 and 342 is performed, and the image position and shape change amount 51 with respect to 322 342 is calculated. Intermediate images 52 and 53 at the imaging time of 33 based on the change amount for 322 and 342 are obtained. Is predicted, and the intermediate image 54 is generated by combining the two images. Next, 333 is generated by cutting out an area located within 54 to 332. An operation of combining 36 is performed by combining 331 after correcting the magnification of the luminance value at 333 and 38.
[0039]
  In the method of claim 4 or claim 5,When image pattern matching is performed, the similarity between the two patterns is also calculated. If the similarity is small or there is no area for pattern matching,Claim 4In this method, the similarity between 311 and 321 and the similarity between 321 and 331 are compared by pattern matching of contour lines, and when the similarity between 321 and 331 is larger,Claim 3Instead of this method, the image immediately after using 32 and 33 is used.Claims 1, 2If the similarity between 311 and 321 is greater,Claim 3Instead of this method, the previous image using 31 and 32 is used.Claims 1, 2The effect of switching to the method is performed.Claim 5In the method of the above, the similarity between 322 and 332 and the similarity between 332 and 342 are compared by contour pattern matching, and when the similarity between 332 and 342 is larger,Claim 3Instead of this method, the image immediately after using 33 and 34 is used.Claims 1, 2If the similarity between 322 and 332 is greater,Claim 3Use the previous image using 32 and 33 instead of the methodClaims 1, 2The effect of switching to the method is performed.
[0040]
  Using FIG.Claims 6, 7The operation of the apparatus will be described. Reference numerals 21 to 23 in FIG. 2 denote a part of video data picked up by alternately changing the imaging time. Reference numerals 21 and 23 denote long-time images, and 22 denotes a short-time image. 211 and 231 are areas where overflow has occurred due to overexposure of the subject, and 212 and 232 are other areas. Reference numeral 221 denotes an area that is predicted to overflow if imaging is performed for a long time, and 222 is an area other than that.
[0041]
  Claims 6, 7, 221 is combined with the position and shape of 211 by the combiner A to become 223, 223 is subjected to magnification correction of the luminance value of the pixel at 26, and then combined with 212 to combine 24 and combiner B Thus, 232 is combined with the position and shape of 222 to become 233, and 25 is combined with 221 after being subjected to magnification correction of the luminance value of the pixel at 27.
[0042]
Here, the operation of combining the image at a certain time with the image immediately after that is described. For example, when 25 is combined, 212 is adjusted to the position and shape 222 instead of 232. In this way, it goes without saying that the image at the time can be synthesized from the image at the time just by replacing the portion using the immediately following image with the immediately preceding image.
[0043]
  Claim 6Synthesizer A performs pattern matching of the contour lines of 221 and 211, calculates the position and shape shift amount 28 of 221 with respect to 211, and operates 223 by reversing 28 with respect to 221. After generating and correcting the magnification of the luminance value of the pixel at 26, an operation of combining 24 with 212 is performed.
[0044]
  Claim 7Synthesizer B performs pattern matching of the contour lines of 232 and 222, calculates a position and shape shift amount 29 of 232 with respect to 222, and causes 233 to act on 232 in reverse. It is generated and combined with 221 after correcting the magnification of the luminance value at 27, the effect of combining 25 is performed.
[0045]
  Next, using FIG.Claim 8The operation of the apparatus will be described. Reference numerals 31 to 34 in FIG. 3 are a part of video data picked up by alternately changing the imaging time. 31 and 33 are short-time captured images, and 32 and 34 are long-time captured images. Reference numerals 321 and 341 denote areas where overflow has occurred due to overexposure of the subject, and reference numerals 322 and 342 denote other areas. Reference numerals 311 and 331 are areas that are predicted to overflow if imaging is performed for a long time, and 312 and 332 are other areas.
[0046]
  Claim 8According to the apparatus, the synthesizer E generates 323 matching the position and shape from 311 and 331 to 321. After correcting the magnification of the luminance value of the pixel at 37, it is combined with 322 and 35 is synthesized. The unit F generates 333 that matches the positions and shapes of 322 and 342 to 332, and synthesizes 36 by combining with 331 after correcting the magnification of the luminance value in 38.
[0047]
  Next, using FIG.Claim 9The operation of the apparatus will be described. In the figure, the same parts as those in FIG. First, pattern matching between the images 311 and 331 is performed by the pattern matching unit, and the image position and shape change amount 41 with respect to 311 331 is calculated. The intermediate images 42 and 43 at the imaging time of 32 are predicted and generated with respect to 311 and 331 from the shift amount, and the intermediate image 44 is generated by combining both images. Next, 323 is generated by cutting out an area located within 44 to 321. 323 performs the function of combining 35 by combining the 322 after correcting the magnification of the luminance value in 37.
[0048]
  Next, using FIG.Claim 10The operation of the apparatus will be described. In the figure, the same parts as those in FIG. First, pattern matching between the images 322 and 342 is performed by a pattern matching unit, and the amount of change 51 in the position and shape of the image with respect to 342 of 322 is calculated. The intermediate images 52 and 53 at the imaging time of 33 are predicted and generated from the amount of shift 322 and 342, and the intermediate image 54 is generated by synthesizing both images. Next, 333 is generated by cutting out an area located within 54 to 332. An operation of combining 36 is performed by combining 331 after correcting the magnification of the luminance value at 333 and 38.
[0049]
  In the device of claim 9 or claim 10,When image pattern matching is performed by a pattern matching unit, the similarity between two patterns is also calculated, and the similarity is evaluated by a similarity evaluator. If the similarity is small or there is no area for pattern matching,Claim 9In the apparatus of, the similarity between 311 and 321 and the similarity between 321 and 331 are compared by contour pattern matching, and if the similarity between 321 and 331 is greater,Claim 8Use the image immediately after using 32 and 33 instead of the deviceClaims 6, 7If the similarity between 311 and 321 is greater,Claim 8Use the previous image using 31 and 32 instead of the deviceClaims 6, 7The operation is switched to the processing operation of the apparatus.Claim 10In the apparatus of, the similarity between 322 and 332 and the similarity between 332 and 342 are compared by contour pattern matching, and when the similarity between 332 and 342 is larger,Claim 8Use the image immediately after using 33 and 34 instead of the deviceClaims 6, 7If the similarity between 322 and 332 is greater,Claim 8Use the previous image using 32 and 33 instead of the deviceClaims 6, 7The operation is switched to the processing operation of the apparatus.
[0050]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0051]
  Of the present inventionClaims 1, 2An embodiment of this method is shown in FIG. In FIG. 6, 61 is an original video data storing process, 62 is a data output switching process, and 63 is a data output switching process.Claim 1An embodiment for realizing step A of the method of FIG.Claim 2An embodiment for realizing the process B of the method No. 65 is an output data storing process.
[0052]
  631 and 632 are region separation processes,Claim 13 is an embodiment of the process C and the process D in the method. 633 and 634 are contour shape extraction processes, 635 is a contour shape pattern matching process, 636 is a region movement / deformation process, 637 is a pixel luminance value magnification correction process, and 638 is an image composition process.
[0053]
  641 and 642 are region separation processes,Claim 23 is an embodiment of the process C and the process D in the method. 643 and 634 are contour line extraction processes, 645 is a contour shape pattern matching process, 646 is a region movement and deformation process, 647 is a pixel luminance value magnification correction process, and 648 is an image composition process.
[0054]
The flow of processing according to this embodiment will be described. In this embodiment, the original image data has a dynamic range of 8 bits (possible pixel brightness values are 0 to 255) and has been subjected to inverse gamma correction. Also, a process for synthesizing the image data at the time from the image at a certain time and the image data immediately after the image will be described, where k is the imaging time ratio between the long imaging time and the short imaging time.
[0055]
In 61, video data obtained by alternately changing the imaging time is stored. If this method can be performed by real-time processing, an output (gamma corrected) process of the imaging time variable camera may be directly performed instead of 61.
[0056]
62 sequentially extracts an image and an image of the immediately following frame from 61, and outputs the long-time captured image to 631 and the short-time captured image to 632 if the two images are in the order of the long-time captured image and the short-time captured image. If the order is the short-time captured image and the long-time captured image, the long-time captured image is output to 641 and the short-time captured image is output to 642.
[0057]
Reference numerals 631 and 632 separately output an area having a luminance value of a pixel equal to or greater than a specified value from an input image and an area having a luminance value of a pixel less than the value. By setting the specified value of 631 to 255, 631 outputs the overflow area X to 633 and the other area X-(Represents X bar in the drawing) is output to 638. By setting the designated value of 632 to 256 / k, 632 outputs an area Y that is predicted to overflow if imaging is performed for a long time to 634 and 636.
[0058]
633 and 634 extract the outline of the region by a chain coding method (reference document: image analysis handbook pp. 579-580), which is a known method, and output it to 635.
[0059]
635 converts the contour shape output from 633 and 634 into Fourier descriptor (reference: image analysis handbook pp.581-582) expression data, and compares the data to perform pattern matching, thereby performing both contour shapes. Is output as affine transformation matrix data (reference document: latest trends in image processing algorithms, separate volume Plus E, pp. 58-72). Note that there are various known methods for contour line shape pattern matching, and the scope of claims of the present invention is not limited to this embodiment. In addition, since the amount of movement of the contour line shape that occurs between the two frames is very small, there is also a simplified method of outputting the shift amount of the centroid coordinates of the two regions as shift data assuming that the entire region moves uniformly without considering the deformation. The content of the data is not limited to this embodiment.
[0060]
Further, in the present embodiment, the case where there is one pattern matching target area is described, but when a plurality of contour lines are extracted at 633 and 634, the barycentric coordinates of the areas surrounded by the respective contour lines are obtained, It goes without saying that the above processing can be easily extended to a plurality of processes by performing the above-described pattern matching between the objects having the closest barycentric coordinates.
[0061]
Based on the affine transformation matrix data output from 635, 636 outputs the position and shape of region Y to 637 in accordance with the position and shape of region X.
[0062]
637 multiplies the luminance value of the pixel by k and outputs the result to 638. As a result, the sensitivity difference between the images of two frames having different imaging times is corrected, and the luminance values of the pixels capturing the same luminance portion are the same.
[0063]
638 is the output of 637 and the region X output from 631-Are combined into one piece of image data and stored in 65. As a result, a high dynamic range image at the long imaging time is synthesized from the two images of the long imaging and the immediately following short imaging.
[0064]
641 and 642 are divided into an area having a luminance value of a pixel greater than or equal to a specified value and an area having a luminance value of a pixel less than the specified value from the input image and output. By setting the specified value of 641 to 255, the region X that has not overflowed 641-Are output to 643 and 646. By setting the specified value of 642 to 256 / k, the region Y that is predicted to overflow if 642 is imaged for a long time is set to 647, and the other region Y-(Represents Y bar in the drawing) is output to 644.
[0065]
643 and 644 extract the outline of the region by a chain coding method, which is a known method, and output it to 645.
[0066]
645 converts the contour shape output from 643 and 644 into Fourier descriptor expression data, and compares the data to perform pattern matching, thereby converting the position and shape displacement data of both contour shapes into affine transformation matrix data. Output as.
[0067]
646 is a region X based on the affine transformation matrix data output from 645.-The position and shape of the region Y-Is output to 648 in accordance with the position and shape.
[0068]
In step 647, the luminance value of the pixel in the region Y output from step 642 is multiplied by k and output to step 648. As a result, the sensitivity difference between the images of two frames having different imaging times is corrected, and the luminance values of the pixels capturing the same luminance portion are the same.
[0069]
648 combines the output of 646 and the output of 647 into a single piece of image data, and stores this in 65. As a result, a high dynamic range image at the short time imaging time is synthesized from the two images of the short time imaging and the immediately following long time imaging.
[0070]
  Of the present inventionClaims 3 to 5An embodiment of this method is shown in FIG. In FIG. 7, reference numeral 71 denotes an original video data storing process, 72 denotes a data output switching process, and 73 denotesClaim 4An embodiment for realizing step E of the method of FIG.Claim 5An embodiment for realizing the process F of the above method 75 is an output data storing process.
[0071]
  731, 732, and 733 are region separation processes,Claim 43 is an embodiment of the process C and the process D in the method. Reference numeral 734 denotes an intermediate image prediction generation process, 735 denotes an area cutout process, 736 denotes a pixel luminance value magnification correction process, and 737 denotes an image synthesis process.
[0072]
  741, 742, and 743 are region separation processes,Claim 53 is an embodiment of the process C and the process D in the method. 744 is an intermediate image prediction generation process, 745 is an area cutout process, 746 is a pixel luminance value magnification correction process, and 747 is an image composition process.
[0073]
The flow of processing according to this embodiment will be described. In this embodiment, the original image data has a dynamic range of 8 bits (possible pixel brightness values are 0 to 255) and has been subjected to inverse gamma correction. Also, a process for synthesizing the image data at the time from the image at a certain time and the image data immediately after the image will be described, where k is the imaging time ratio between the long imaging time and the short imaging time.
[0074]
71 stores video data taken by alternately changing the imaging time. If this method can be performed by real-time processing, the output (gamma corrected) process of the imaging time variable camera may be directly used instead of 71.
[0075]
72 sequentially extracts the image and the immediately preceding and immediately following frames from 71, and if the three images are in the order of the short-time captured image, the long-time captured image, and the short-time captured image, the previous short-time captured image is set to 731. The long-time captured image is output to 732 and the short-to-long image immediately after is output to 733. If the three images are in the order of a long-time captured image, a short-time captured image, and a long-time captured image, the immediately previous long-short captured image is set to 741, the short-time captured image is set to 742, and the immediately following long-time captured image is 743.
[0076]
Reference numerals 731, 732, and 733 are divided into an area having a luminance value of a pixel that is equal to or greater than a specified value and an area having a luminance value of a pixel that is less than the specified value from the input image. By setting the designated value of 731 to 256 / k, 731 outputs to region 734 the area Y that is predicted to overflow if imaging has been performed for a long time. By setting the specified value of 732 to 255, 732 sets the overflow area X to 735, and other areas X-Is output to 737. By setting the designated value of 733 to 256 / k, 733 outputs to region 734 the region Y that is predicted to overflow if imaging has been performed for a long time.
[0077]
  734 predicts an intermediate image at a short imaging time from the image of region Y output from 731 and 733 by a dual prime prediction method (reference: information compression technology for digital broadcasting / Internet technology, pp. 218-219). Generate and output to 735. The dual prime prediction method collectively performs the operations 41, 42, 43, and 44 in FIG.Claim 4The image pattern matching operation described in the above method is performed by BMA (block matching algorithm) in the dual prime prediction method.
[0078]
In addition to BMA, there are various known methods for pattern matching of images, and there are known methods other than the dual prime prediction method for predicting and generating images, and the scope of claims of the present invention is in this embodiment. It is not limited.
[0079]
735 cuts out only the image of the area included in the area X output from 732 out of the intermediate image output from 734 and outputs it to 736.
[0080]
736 multiplies the luminance value of the pixel of the image output from 735 by k and outputs it to 737. As a result, the sensitivity difference between the images of two frames having different imaging times is corrected, and the luminance values of the pixels capturing the same luminance portion are the same.
[0081]
737 combines the output of 732 and the output of 736 into one piece of image data, and stores this in 75. As a result, a high dynamic range image at the long imaging time is synthesized from the three images of the long imaging and the short imaging immediately before and immediately after.
[0082]
741, 742, and 743 are separated from an input image into an area having a luminance value of a pixel greater than or equal to a specified value and an area having a luminance value of a pixel less than the specified value, and output. By setting the specified value of 741 to 255, 741 is overflow region X-Is output to 744. By setting the specified value of 742 to 256 / k, if 742 has been imaged for a long time, the region Y that is predicted to overflow is changed to 746, and the other region Y-Is output to 745. By setting the specified value of 743 to 255, 743 is overflow region X-Is output to 744.
[0083]
  744 is a region X output from 741 and 743.-An intermediate image at a short imaging time is predicted and generated from the image of the image by the dual prime prediction method, and is output to 745. The dual prime prediction method collectively performs the operations 51, 52, 53, and 54 in FIG.Claim 5The image pattern matching operation described in the above method is performed by BMA (block matching algorithm) in the dual prime prediction method.
[0084]
Reference numeral 745 denotes a region Y output from 742 of the intermediate image output from 744.-Only the image of the area included in the image is cut out and output to 747.
[0085]
In step 746, the luminance value of the pixel of the image output from 742 is multiplied by k and output to 747. As a result, the sensitivity difference between the images of two frames having different imaging times is corrected, and the luminance values of the pixels capturing the same luminance portion are the same.
[0086]
747 combines the output of 745 and the output of 746 into one piece of image data, and stores this in 75. As a result, a high dynamic range image at a short imaging time is synthesized from the three images of the short imaging and the short imaging immediately before and immediately after.
[0087]
  Method of the present inventionOne embodiment is shown in FIG. In FIG. 8, the part showing the process of performing the same operation as FIG.Attached.
[0088]
  In FIG. 8, reference numeral 71 is an original video data storing process, 72 is a data output switching process, 731, 732 and 733 are region separation processes, and 734 is an intermediate image prediction generation process based on the dual prime prediction method. Reference numerals 831 to 835 denote internal processing steps of 734, 831 is a motion vector extraction process based on BMA, 832 is a motion compensation vector generation process, 833 is an intermediate image prediction generation process using the previous frame image, and 834 is a subsequent frame. An intermediate image prediction generation process using images, 835 is an intermediate image synthesis process. 836 is an image pattern similarity determination process, 81 is the pattern matching process of the contour line of the region X of the immediately preceding short-time captured image and the contour line of the region Y of the long-time captured image, and 82 is the region of the immediately subsequent short-time captured image A pattern matching process of an X contour line and a contour line of an area Y of a long-time captured image, 83 a processing operation selection process, and 84 synthesizing a high dynamic range image from the long-time captured image and the immediately preceding short-time captured image. 85 is a process of realizing method 1, and a high dynamic range image is synthesized from a long-time captured image and a short-time captured image immediately after the long-time captured image.Claims 1, 2A process 75 for realizing the above method is an output data storing process 75.
[0089]
  Using this figure, 3 frames are arranged in the order of short-time image, long-time image, and short-time image.The method of the present invention from an imageBy implementingClaim 3Use the image immediately before or afterClaims 1, 2An example of switching to this method will be described.
[0090]
The image data of three consecutive frames from 71 is taken out 72, the immediately preceding short-time captured image is output to 731, the long-time captured image is output to 732, and the immediately subsequent short-time captured image is output to 733.
[0091]
731 outputs to region 831 and 81 a region Y that is predicted to have overflowed if the image was captured for a long time. In step 733, the region Y predicted to have overflowed if the image was captured for a long time is output to 831 and 82.
[0092]
  734 is an intermediate image prediction generation process based on the dual prime prediction method, internal blocks 831 to 835 are known processing processes, and 836 isThe present inventionThis is a new process constituting the method. First, the operation of the conventional 734 will be briefly described.
[0093]
831 performs pattern matching on the image of the two areas by the block pattern matching method, calculates a shift vector for each block, and outputs 832, and MAE (average absolute value) which is a residual of the matching results of the two areas. Error) is output to 836. In 832, a shift amount (compensation vector) for making an image at the imaging time of a long-time captured image is separately calculated for each of the immediately preceding image and the immediately following image, and is output to 833 and 834.
[0094]
  In step 833, the region Y output from 731 is moved and deformed into a partial intermediate image using the compensation vector, and output to 835. 834 uses the compensation vector to move and transform the region Y output from 733 into a partial intermediate image and output it to 835. In step 835, one intermediate image is generated by combining two partial intermediate images. Or later,Claim 3If this method is used, the process proceeds along the flow of 735, 736, and 737 in FIG.
[0095]
  next, The present inventionA case where the operation of the method is performed will be described. 836 examines the MAE for each block output from 831. If the sum of MAEs of all blocks> v with respect to a predetermined threshold value v, it is determined that the similarity between the two regions is low 734. Subsequent processing is stopped, and 81 and 82 are commanded to operate.
[0096]
Note that the similarity can be given not only by MAE but also by a known method such as MSE (mean square error) or a cross-correlation function. In addition, the similarity determination can be determined not only by these error components, but also from the variance of the movement vector for each block generated in 831. However, if the technique can express the similarity of two regions. For example, the method of expressing the similarity and the determination method are not limited to the present embodiment.
[0097]
81 extracts the contour shape of the two regions, calculates the amount of movement deformation by matching the contour pattern, and outputs it to 83. Note that the contour line extraction process and the amount of movement deformation are pattern matching based on the coding chain method and the Fourier descriptor transform method described in the embodiment of FIG.
[0098]
82 extracts the contour shape of the two regions, calculates the amount of movement deformation by matching the contour pattern, and outputs it to 83.
[0099]
By performing similarity determination 83, an image having a higher similarity to the long-time captured image is determined from the immediately preceding short-time captured image and the immediately following short-time captured image. The similarity determination is made with the smaller moving deformation amount. For example, when the amount of movement deformation is given by an affine transformation matrix as in the embodiment described with reference to FIG. 6, the sum of squares of the values of all the elements of the normalized matrix is calculated and used as the similarity. In addition to the sum of squares, it is possible to express the similarity, and when the amount of movement deformation is given by a data structure other than the affine transformation determinant, the expression of the similarity changes correspondingly. However, the present invention is not limited to this embodiment as long as it is an expression expressing the similarity between two contour lines.
[0100]
83, when the similarity calculated from 81 is larger than the similarity calculated from 82, it is determined that the similarity between the long-time captured image and the immediately preceding short-time captured image is larger, and 84 is operated. If the similarity calculated from 82 is larger, it is determined that the similarity between the long-time captured image and the immediately subsequent short-time captured image is larger, and 85 is operated.
[0101]
84 synthesizes a high dynamic range image from the long-time captured image and the previous short-time captured image by the process of the embodiment of FIG.
[0102]
85 synthesizes a high dynamic range image from the long-time captured image and the short-time captured image immediately after by the process of the embodiment of FIG.
[0103]
FIG. 9 shows an explanatory diagram for generating a high dynamic range image from an original image when the method of this embodiment is used. Reference numerals 91 to 96 are original images formed by alternately repeating a short-time captured image and a long-time captured image. Here, 91, 93, and 95 are long-time images, and 92, 94, and 96 are short-time images. It is assumed that the spotlight is illuminated after the frame 94 and the region shape of the bright part in the image has changed significantly.
[0104]
  Using this embodiment, basically, a high dynamic range image of one frame is synthesized from an image of three frames.Claim 3Are used (97, 98, 911, 912). In the process of 99, it is determined that the similarity is low at 92 and 94, and the image having a higher similarity as 93 is determined as 92. A high dynamic range image of one frame is synthesized from the two frames of 93 and the previous 92 frames.Claims 1, 2The method is used. In the processing of 910, it is determined that the similarity is low at 93 and 95, and an image with a higher similarity than 94 is determined to be 95, and one frame of high dynamics of 2 frames of 94 and 95 immediately after is determined. Combining range imagesClaims 1, 2The method is used.
[0105]
  Of the present inventionClaims 6, 7One embodiment of this apparatus is shown in FIG. 101 in FIG. 10 is an original video data storage unit composed of a magnetic recording device or a memory, 102 is a control device using a CPU, 103 isClaim 6An embodiment for realizing the synthesizer A of the apparatus of FIG.Claim 7One embodiment for realizing the synthesizer B of the apparatus shown in FIG. 1 is an output data storage unit 105 constituted by a magnetic recording device or a memory.
[0106]
  1031 and 1032 are area separators,Claim 6It is one Embodiment of the detector C and the detector D in the apparatus of. 1033 and 1034 are contour shape extractors, 1035 is a contour shape pattern matching device, 1036 is a region shifter, 1037 is a pixel luminance value magnification corrector, and 1038 is an image synthesizer.
[0107]
  1041 and 1042 are area separators,Claim 7It is one Embodiment of the detector C and the detector D in the apparatus of. 1043 and 1034 are contour line extractors, 1045 is a contour shape pattern matching unit, 1046 is a region shifter, deformer, 1047 is a pixel luminance value magnification corrector, and 1048 is an image synthesizer.
[0108]
The flow of processing according to this embodiment will be described. In this embodiment, the original image data has a dynamic range of 8 bits (possible pixel brightness values are 0 to 255) and has been subjected to inverse gamma correction. Also, a process for synthesizing the image data at the time from the image at a certain time and the image data immediately after the image will be described, where k is the imaging time ratio between the long imaging time and the short imaging time.
[0109]
Reference numeral 101 stores video data obtained by alternately changing the imaging time. If the apparatus can be operated in real time, 101 may be omitted and the output (gamma corrected) of the imaging time variable camera may be directly connected to 102.
[0110]
102 sequentially extracts an image and an image of the immediately following frame from 101. If the two images are in the order of a long-time captured image and a short-time captured image, the long-time captured image is output to 1031 and the short-time captured image is output to 1032. To do. If the order is the short-time captured image and the long-time captured image, the long-time captured image is output to 1041 and the short-time captured image is output to 1042.
[0111]
1031 and 1032 are divided into an area having a luminance value of a pixel greater than or equal to a specified value from an input image and an area having a luminance value of a pixel less than the specified value and output. By setting the specified value of 1031 to 255, 1031 outputs the overflow area X to 1033 and the other area X-Is output to 1038. By setting the designated value of 1032 to 256 / k, the region Y predicted to overflow if 1032 is imaged for a long time is output to 1034 and 1036.
[0112]
Reference numerals 1033 and 1034 extract the outline of the region by a chain coding method (reference document: image analysis handbook pp. 579-580), which is a known method, and output it to 1035.
[0113]
1035 converts the contour shapes output from 1033 and 1034 into Fourier descriptor (reference: image analysis handbook pp.581-582) expression data, and compares the data to perform pattern matching to thereby form both contour shapes. Is output as affine transformation matrix data (reference document: latest trends in image processing algorithms, separate volume Plus E, pp. 58-72). There are various well-known devices for contour pattern matching. As long as the contour line can be extracted, the scope of claims of the present invention is not limited to this embodiment. In addition, since the amount of movement and deformation of the contour line shape that occurs between the two frames is very small, the deformation is not taken into account, and a simplified device that outputs the shift amount of the center of gravity coordinates of the two regions as shift data assuming that the entire region moves uniformly (example) : MUSE HiVision encoder), and the scope of the claims of the present invention is not limited to this embodiment.
[0114]
Further, in the present embodiment, the case where there is one pattern matching target region is described, but when a plurality of contour lines are extracted at 1033 and 1034, the barycentric coordinates of the regions surrounded by the respective contour lines are obtained, Needless to say, the above pattern matching is performed between objects having the closest barycentric coordinates, so that the processing can be easily expanded to a plurality of processes.
[0115]
Based on the affine transformation matrix data output from 1035, 1036 outputs the position and shape of the region Y to 1037 in accordance with the position and shape of the region X.
[0116]
1037 multiplies the luminance value of the pixel by k and outputs it to 1038. As a result, the sensitivity difference between the images of two frames having different imaging times is corrected, and the luminance values of the pixels capturing the same luminance portion are the same.
[0117]
1038 is the output of 1037 and the region X output from 1031-Are combined into one piece of image data and stored in 105. As a result, a high dynamic range image at the long imaging time is synthesized from the two images of the long imaging and the immediately following short imaging.
[0118]
Reference numerals 1041 and 1042 output the input image separately into an area having a luminance value of a pixel equal to or greater than a specified value and an area having a luminance value of a pixel less than the specified value. By setting the specified value of 1041 to 255, the region X where 1041 has not overflowed-Are output to 1043 and 1046. By setting the designated value of 1042 to 256 / k, the area Y that is expected to overflow if 1042 is imaged for a long time is set to 1047, and the other area Y-Is output to 1044.
[0119]
Reference numerals 1043 and 1044 extract the outline of the region by a chain coding method, which is a known method, and output it to 1045.
[0120]
1045 converts the contour shape output from 1043 and 1044 into Fourier descriptor expression data, and compares the data to perform pattern matching, thereby converting the position and shape displacement data of both contour shapes into affine transformation matrix data. Output as.
[0121]
1046 is a region X based on the affine transformation matrix data output from 1045.-The position and shape of the region Y-Output to 1048 according to the position and shape.
[0122]
1047 multiplies the luminance value of the pixel in region Y output from 1042 by k, and outputs the result to 1048. As a result, the sensitivity difference between the images of two frames having different imaging times is corrected, and the luminance values of the pixels capturing the same luminance portion are the same.
[0123]
1048 combines the output of 1046 and the output of 1047 into one piece of image data and stores it in 105. As a result, a high dynamic range image at the short time imaging time is synthesized from the two images of the short time imaging and the immediately following long time imaging.
[0124]
  Of the present inventionClaims 8 to 10One embodiment of this apparatus is shown in FIG. In FIG. 11, reference numeral 111 denotes an original video data storage composed of a magnetic recording device or a memory, 112 denotes a control device using a CPU, and 113 denotesClaim 9An embodiment for realizing the synthesizer E of the apparatus of FIG.Claim 10An embodiment for realizing the synthesizer F of the apparatus shown in FIG. 11 is an output data storage unit 115 including a magnetic recording device or a memory.
[0125]
  Reference numerals 1131, 1132, and 1133 are area separators,Claim 9It is one Embodiment of the detector C and the detector D in the apparatus of. Reference numeral 1134 denotes an intermediate image prediction generator, 1135 denotes a region segmenter, 1136 denotes a pixel luminance value magnification corrector, and 1137 denotes an image synthesizer.
[0126]
  1141, 1142 and 1143 are area separators,Claim 9It is one Embodiment of the detector C and the detector D in the apparatus of. Reference numeral 1144 denotes an intermediate image prediction generator, 1145 denotes a region segmenter, 1146 denotes a pixel luminance value magnification corrector, and 1147 denotes an image synthesizer.
[0127]
The flow of processing according to this embodiment will be described. In this embodiment, the original image data has a dynamic range of 8 bits (possible pixel brightness values are 0 to 255) and has been subjected to inverse gamma correction. Also, a process for synthesizing the image data at the time from the image at a certain time and the image data immediately after the image will be described, where k is the imaging time ratio between the long imaging time and the short imaging time.
[0128]
111 stores video data taken by alternately changing the imaging time. If the apparatus can be operated in real time, 111 may be omitted and the output of the imaging time variable camera (gamma corrected) may be directly connected to 112.
[0129]
112 sequentially extracts an image and an image of the immediately preceding and immediately following frames from 111. If the three images are in the order of a short-time captured image, a long-time captured image, and a short-time captured image, the previous short-time captured image is set to 1131. The long-time captured image is output to 1132, and the short-long image immediately after is output to 1133. Also, if the three images are in the order of a long-time image, a short-time image, and a long-time image, the previous long-short image is 1141, the short-time image is 1142, and the next long-time image is 1143 is output.
[0130]
Reference numerals 1131, 1132, and 1133 output the input image separately into an area having a luminance value of a pixel greater than a specified value and an area having a luminance value of a pixel less than the specified value. By setting the designated value of 1131 to 256 / k, 1131 outputs to Y 1134 an area Y that is predicted to overflow if imaging is performed for a long time. By setting the specified value of 1132 to 255, 1132 changes the overflow area X to 1135 and the other area X-Is output to 1137. By setting the designated value of 1133 to 256 / k, 1133 outputs, to 1134, a region Y that is predicted to overflow if imaging has been performed for a long time.
[0131]
  Reference numeral 1134 denotes a dual prime prediction computing unit (reference: information compression technology for digital broadcasting / Internet technology, pp. 218-219), which is an intermediate image at a short imaging time from the image of the region Y output from 1131 and 1133. Prediction is generated and output to 1135. The dual prime prediction computing unit collectively performs the operations 41, 42, 43 and 44 of FIG. 4 described in the explanation of the operation. The BMA (Block Matching Algorithm) calculator in the dual prime calculatorClaim 9This corresponds to the image pattern matching device described in the apparatus.
[0132]
In addition to the BMA, there are various known devices for the image pattern matching device, and there are known devices other than the dual-prime prediction computing device for the image prediction generator. The scope of the claims of the present invention is not limited to this embodiment as long as it is an apparatus for performing the above.
[0133]
1135 cuts out only the image of the area included in the area X output from 1132 out of the intermediate image output from 1134 and outputs it to 1136.
[0134]
In 1136, the luminance value of the pixel of the image output from 1135 is multiplied by k and output to 1137. Thereby, the sensitivity difference between the images of two frames having different imaging times is corrected. The luminance values of the pixels that image the same luminance portion are the same.
[0135]
1137 combines the output of 1132 and the output of 1136 into one piece of image data and stores it in 115. As a result, a high dynamic range image at the long imaging time is synthesized from the three images of the long imaging and the short imaging immediately before and immediately after.
[0136]
Reference numerals 1141, 1142, and 1143 output the input image by separating it into an area having a luminance value of pixels greater than or equal to a specified value and an area having a luminance value of pixels less than the specified value. By setting the specified value of 1141 to 255, 1141 is overflow region X-Is output to 1144. By setting the designated value of 1142 to 256 / k, the region Y that is predicted to overflow if 1142 is imaged for a long time is set to 1146, and the other region Y-Is output to 1145. By setting the specified value of 1143 to 255, 1143 is overflow region X-Is output to 1144.
[0137]
  1144 is an area X output from 1141 and 1143-The intermediate image at the short time imaging time is predicted and generated from the first image by the dual prime prediction calculator, and is output to 1145. The dual prime prediction computing unit collectively performs the operations 51, 52, 53, and 54 in FIG. The BMA (Block Matching Algorithm) calculator in the dual prime calculatorClaim 10This corresponds to the image pattern matching device described in the apparatus.
[0138]
Reference numeral 1145 denotes an area Y output from 1142 among the intermediate images output from 1144.-Only the image of the area included in is cut out and output to 1147.
[0139]
1146 multiplies the luminance value of the pixel of the image output from 1142 by k, and outputs the result to 1147. As a result, the sensitivity difference between the images of two frames having different imaging times is corrected, and the luminance values of the pixels capturing the same luminance portion are the same.
[0140]
1147 combines the output of 1145 and the output of 1146 into a piece of image data and stores it in 115. As a result, a high dynamic range image at a short imaging time is synthesized from the three images of the short imaging and the short imaging immediately before and immediately after.
[0141]
  Device of the present inventionFIG. 12 shows an embodiment in which three frames of images arranged in the order of a short-time captured image, a long-time captured image, and a short-time captured image are processed. In FIG. 12, parts that are the same as those in FIG.AttachedYes.
[0142]
  In FIG. 12, reference numeral 111 denotes an original video data storage composed of a magnetic recording device or a memory, 112 denotes a control device using a CPU, 1131, 1132, and 1133 denote area separators, and 1134 denotes an intermediate based on the dual prime prediction method. It is an image prediction generator. Reference numerals 1231 to 1235 denote apparatuses for performing the internal processing of 1134, 1231 is a motion vector extractor based on BMA, 1232 is a motion compensation vector generator, 1233 is an intermediate image prediction generator using a previous frame image, and 1234 is An intermediate image prediction generator 1235 using the rear frame image is an intermediate image synthesizer. 1236 is an image pattern similarity determination unit, 121 is a pattern matching unit for the contour line of the region X of the immediately preceding short-time captured image and the contour line of the region Y of the long-time captured image, and 122 is the region of the immediate short-time captured image. X contour line and long-time captured image area Y contour pattern matching unit, 123 is a processing operation selector, and 124 synthesizes a high dynamic range image from the long-time captured image and the previous short-time captured image.Claims 6, 7The device 125 synthesizes a high dynamic range image from a long-time captured image and a short-time captured image immediately thereafter.Claims 6, 7Reference numeral 115 denotes an output data storage unit constituted by a magnetic recording device or a memory.
[0143]
  Using this figure, from the image of 3 frames arranged in the order of short-time captured image, long-time captured image, and short-time captured imageThe present inventionWith the equipment ofClaim 8Use the image immediately before or afterClaims 6, 7An example of switching the processing operation to this apparatus will be described.
[0144]
Three consecutive frames 112 are extracted from 111, and the immediately preceding short-time captured image is output to 1131, the long-time captured image is output to 1132, and the immediately subsequent short-time captured image is output to 1133. 1131 outputs to region 1231 and 121 a region Y that is predicted to have overflowed if the image was captured for a long time. A region 1133 outputs the region Y predicted to have overflowed if imaged for a long time to 1231 and 122.
[0145]
  Reference numeral 1134 denotes an intermediate image prediction generation device based on the dual prime prediction method. Internal blocks 1231 to 1235 are known processing devices.Device of the present inventionIt is a new device that constitutes. First, the operation of the conventional 1134 will be briefly described.
[0146]
Reference numeral 1231 performs pattern matching on the image of the two regions by the BMA method, calculates a shift vector for each block, and outputs MAE (average value absolute value error), which is a residual of the matching result of the two regions, to 1232. 1236. Reference numeral 1232 calculates a shift amount (compensation vector) for making an image at the imaging time of a long-time captured image separately for each of the immediately preceding image and the immediately following image and outputs it to 1233 and 1234.
[0147]
  1233 uses the compensation vector to move and transform the region Y output from 1131 into a partial intermediate image and output it to 1235. 1234 uses the compensation vector to move and transform the region Y output from 1133 into a partial intermediate image and output it to 1235. In step 1235, one intermediate image is generated by combining two partial intermediate images. Or later,Claim 8When the process continues in the apparatus of FIG. 11, the process proceeds along the flow of 1135, 1136, and 1137 in FIG.
[0148]
  next,The present inventionA case where the operation of the apparatus is performed will be described. 1236 examines the MAE for each block output from 1231. If the sum of MAEs of all blocks> v with respect to a predetermined threshold value v, it is determined that the similarity of the two regions is low 1132 The process is stopped, and operations are commanded to 121 and 122.
[0149]
121 extracts the contour line from the region Y output from 1131 and the region X output from 1132 by the contour line extractor by the coding chain method, and calculates the movement deformation amount by the pattern matching device by the Fourier descriptor transform method. And output to 123.
[0150]
122 extracts the contour line from the region Y output from 1133 and the region X output from 1132 by the contour line extractor by the coding chain method, and calculates the movement deformation amount by the pattern matching device by the Fourier descriptor transform method. And output to 123.
[0151]
In step 123, similarity determination is performed using the moving deformation amount, thereby determining an image having a higher similarity to the long-time captured image from the immediately preceding short-time captured image and the immediately following short-time captured image. The similarity determination is made with the smaller moving deformation amount. For example, when the amount of movement deformation is given by an affine transformation matrix as in the embodiment described with reference to FIG. 10, the sum of squares of the values of all elements of the normalized matrix is calculated and used as the similarity. In addition to the sum of squares, it is possible to express similarity. Also, when the amount of movement deformation is given by a data structure other than the affine transformation determinant, the expression of similarity changes correspondingly, but if the expression expresses the similarity of two contour lines, the present invention The scope of the claims is not limited to this embodiment.
[0152]
If the similarity calculated from 121 is greater than the similarity calculated from 122, it is determined that the similarity between the long-time captured image and the immediately preceding short-time captured image is greater and 124 is operated. If the similarity calculated from 122 is larger, it is determined that the similarity between the long-time captured image and the short-time captured image immediately after is larger, and 125 is operated.
[0153]
Reference numeral 124 synthesizes a high dynamic range image from the long-time captured image and the immediately preceding short-time captured image by the apparatus of the embodiment of FIG.
[0154]
125 synthesizes a high dynamic range image from the long-time captured image and the short-time captured image immediately after it by the apparatus of the embodiment of FIG.
[0155]
Note that the present invention can be realized by configuring a part or all of the functions of each unit in the apparatus shown in FIGS. 10 to 12 by a computer program and executing the program using the computer. It is needless to say that the processing procedure of the method according to the processing steps described with reference to FIGS. 6 to 8 can be configured by a computer program, and the program can be executed by the computer. A program for causing the computer to execute the processing procedure is a recording medium readable by the computer, such as FD (floppy disk (registered trademark)), MO, ROM, memory card, CD, DVD, removable disk, etc. To record, store and distribute It is possible. It is also possible to provide the above program through a network such as the Internet or electronic mail.
[0156]
【The invention's effect】
  In the conventional method and apparatus, as shown by 11 in FIG. 1 (a), one frame image is synthesized from a two frame image by a single synthesis algorithm, so that the frame rate is halved. And the equipmentClaims 1, 2And the methodClaims 6, 7In the apparatus of FIG.Claim 3And the methodClaim 8Both devices can generate a high dynamic range image at the same frame rate as the original image, as indicated by 13 in FIG.
[0157]
  In addition, the present inventionClaims 1, 2Methods andClaims 6, 7In this apparatus, as shown in FIG. 2, images of two frames having different imaging times are not synthesized as they are, but are synthesized after predicting and generating an image that should be obtained at the same imaging time. Do not synthesize natural images.
[0158]
  Furthermore,Claims 1, 2Methods andClaims 6, 7The device of can provide an accurate composite image when the movement of the contour line part and the movement in the contour line are the same,Claim 3Methods andClaim 8This apparatus can provide an accurate composite image even when the motion of the contour line portion and the motion within the contour line are different, so that a higher dynamic range image with higher quality can be provided.
[0159]
  On the other hand,Claim 3Methods andClaim 8This device requires three consecutive frames of video, so it cannot be applied when video switching points or image content changes discontinuously between frames, or even if it is forcibly applied. There is also a problem that only a low-quality composite image can be obtained. Therefore,Method and apparatus of the present inventionAnd detecting the discontinuous portion by examining the similarity between the two images,Claim 3And the methodClaims 1, 2Method orClaim 8With equipmentClaims 6, 79 is adaptively switched to perform processing, so that even if there is a discontinuous portion between images as shown in FIG. It is possible to synthesize.
[Brief description of the drawings]
FIG. 1 (1) shows a conventional method, and (2) shows the present invention.Claims 1, 2(3) is the method of the present invention.Claim 3It is the figure explaining the response | compatibility of the original image data at the time of using each method, and synthetic | combination image data.
FIG. 2 of the present inventionClaims 1, 2Methods andClaims 6 and 7It is the figure explaining the effect | action of this apparatus.
FIG. 3 of the present inventionClaim 3Methods andClaim 8It is the figure explaining the effect | action of this apparatus.
FIG. 4 of the present inventionClaim 4Methods andClaim 9It is the figure explaining the effect | action of this apparatus.
FIG. 5 shows the present invention.Claim 5Methods andClaim 10It is the figure explaining the effect | action of this apparatus.
FIG. 6 of the present inventionClaims 1, 2It is the figure which showed one Embodiment of the method of.
[Fig. 7] of the present invention.Claims 3, 4, and 5It is the figure which showed one Embodiment of the method of.
[Fig. 8]Method of the present inventionIt is the figure which showed one Embodiment.
FIG. 9Method and apparatus of the present inventionFIG. 6 is a diagram showing a correspondence relationship between original image data and composite image data in the case of using.
FIG. 10 shows the present invention.Claims 6 and 7It is the figure which showed one Embodiment of the apparatus of.
FIG. 11 shows the present invention.Claims 8, 9, 10It is the figure which showed one Embodiment of the apparatus of.
FIG.Device of the present inventionIt is the figure which showed one Embodiment.

Claims (12)

撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、
長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Aと、
短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Bの異なる2つの合成過程とを有し、
長時間撮像時刻における画像については過程Aを実行し、短時間撮像時刻における画像については過程Bを実行し、
過程Aでは、
長時間撮像の画像内にあるオーバーフロー領域Xを検出する過程Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、
2領域の輪郭線のパターンマッチングを行う過程とを有し、
過程Cにより長時間撮像画像を領域Xとそれ以外の領域X - に分離し、
過程Dにより直後または直前の短時間撮像画像から領域Yを抜き出し、
パターンマッチングを行う過程により領域Yの位置、形状を領域Xの位置、形状に合わせた後で画素の輝度値の倍率補正を行った後に、領域X - と合成することによって、長時間撮像と直後または直前の短時間撮像の2画像から長時間撮像時刻における画像を合成する
ことを特徴とする高ダイナミックレンジ映像の生成方法。
In a method for generating a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging device capable of variably controlling the imaging time,
A process A for synthesizing a high dynamic range image at a long imaging time from two images of a long imaging and a short imaging immediately after or immediately before,
And two different synthesis processes, which are different processes B of synthesizing a high dynamic range image at a short imaging time than two images of short-time imaging and immediately or immediately before long-time imaging
Perform process A for images at the long imaging time, execute process B for images at the short imaging time ,
In process A,
A process C for detecting an overflow region X in an image captured for a long time;
A process D for detecting a region Y that is predicted to overflow if the image is captured for a long time in an image captured for a short time;
Performing a pattern matching of contour lines of two regions,
In Step C, the long-time captured image is separated into the region X and the other region X
The region Y is extracted from the short-time captured image immediately after or immediately before by the process D,
Position of the area Y by a process of performing pattern matching, the position of the shaped regions X, after the magnification correction of the luminance value of the pixel after conforming to the shape, area X - by combining with a long time after an imaging Or, the image at the long imaging time is synthesized from the two short imaging images just before
A method of generating a high dynamic range video.
撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、
長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Aと、
短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Bの異なる2つの合成過程とを有し、
長時間撮像時刻における画像については過程Aを実行し、短時間撮像時刻における画像については過程Bを実行し、
過程Bでは、
長時間撮像の画像内にあるオーバーフロー領域Xを検出する過程Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、
2領域の輪郭線のパターンマッチングを行う過程とを有し、
過程Dにより短時間撮像画像を領域Yとその他の領域Y - に分離し、
過程Cにより直後または直前の長時間撮像画像を領域Xとその他の領域X - に分離し、
パターンマッチングを行う過程により領域X - の位置、形状を領域Y - の位置、形状に合わせた後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直後または直前の長時間撮像の2画像から短時間撮像時刻における画像を合成する
ことを特徴とする高ダイナミックレンジ映像の生成方法。
In a method of generating a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging device capable of variably controlling the imaging time,
A process A for synthesizing a high dynamic range image at a long imaging time from two images of a long imaging and a short imaging immediately after or immediately before;
And two different synthesis processes, B, which synthesize a high dynamic range image at a short imaging time than two images of short-time imaging and immediately or immediately before long-time imaging,
Perform process A for images at the long imaging time, perform process B for images at the short imaging time,
In process B,
A process C for detecting an overflow region X in an image captured for a long time;
A process D for detecting a region Y that is predicted to overflow if the image is captured for a long time in an image captured for a short time;
Performing a pattern matching of contour lines of two regions,
In Step D, the short-time captured image is separated into the region Y and the other region Y
In Step C, a long-time captured image immediately after or immediately before is separated into a region X and another region X ,
After matching the position and shape of the region X − with the position and shape of the region Y by the process of pattern matching, imaging is performed for a short time by combining with the region Y after the magnification correction of the luminance value of the pixel. And a method of generating a high dynamic range image, comprising synthesizing an image at a short imaging time from two images of long imaging immediately after or immediately before .
撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する方法において、
長時間撮像と直前の短時間撮像と直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する過程Eと、
短時間撮像と直前の長時間撮像と直後の長時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する過程Fの異なる2つの合成過程とを有し、
長時間撮像時刻における画像については過程Eを実行し、短時間撮像時刻における画像については過程Fを実行する
ことを特徴とする高ダイナミックレンジ映像の生成方法。
In a method for generating a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging device capable of variably controlling the imaging time,
A process E for synthesizing a high dynamic range image at a long imaging time from three images of a long imaging, a short imaging immediately before and a short imaging just after,
Two synthesis processes different from each other in the process F of synthesizing a high dynamic range image at a short imaging time from three images of a short imaging, a long imaging immediately before and a long imaging immediately after.
A method of generating a high dynamic range image, wherein the process E is executed for an image at a long imaging time, and the process F is executed for an image at a short imaging time.
過程Eでは、
長時間撮像の画像中にあるオーバーフロー領域Xを検出する過程Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、
2領域の画像のパターンマッチングを行う過程とを有し、
過程Cにより長時間撮像の画像を領域Xとそれ以外の領域X-に分離し、
過程Dにより直前の短時間撮像の画像から領域Y1を切り出し、
過程Dにより直後の短時間撮像の画像から領域Y2を切り出し、
2領域の画像のパターンマッチングを行う過程により2領域である領域Y1と領域Y2から長時間撮像時刻における中間画像Y3を生成し、
中間画像Y3から領域Xと位置的に重なる領域を切り出し、画素の輝度値の倍率補正を行った後で、領域X-と合成することによって、長時間撮像と直前の短時間画像と直後の短時間撮像の3画像から長時間撮像時刻における画像を合成する
ことを特徴とする請求項3に記載の高ダイナミックレンジ映像の生成方法。
In process E,
A process C for detecting an overflow region X in a long-time image,
A process D for detecting a region Y that is predicted to overflow if the image is captured for a long time in an image captured for a short time;
A process of performing pattern matching of two image areas,
In Step C, an image captured for a long time is separated into a region X and a region X other than that,
In step D, the region Y1 is cut out from the immediately preceding short-time image,
The region Y2 is cut out from the short-time captured image immediately after the process D,
An intermediate image Y3 at a long imaging time is generated from the two areas Y1 and Y2 through the process of pattern matching of the two areas,
Cut out region overlapping the position to a region X from the intermediate image Y3, after performing the magnification correction of the luminance value of the pixel, region X - and by synthesizing a long time imaging and the immediately preceding short image and immediately after the short The method for generating a high dynamic range image according to claim 3 , wherein an image at a long imaging time is synthesized from three temporal imaging images.
過程Fでは、
長時間撮像の画像中にあるオーバーフロー領域Xを検出する過程Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する過程Dと、
2領域の画像のパターンマッチングを行う過程とを有し、
過程Dにより短時間撮像の画像を領域Yとその他の領域Y-に分離し、
過程Cにより直前の長時間撮像の画像を領域X1とその他の領域X1-に分離し、
過程Cにより直後の長時間撮像の画像を領域X2とその他の領域X2-に分離し、
2領域の画像のパターンマッチングを行う過程により2領域である領域X1-と領域X2-から短時間撮像時刻における中間画像X3-を生成し、
中間画像X3-から領域Y-と位置的に重なる領域を切り出した後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直前の長時間撮像と直後の短時間撮像の3画像から短時間撮像時刻における画像を合成する
ことを特徴とする請求項3に記載の高ダイナミックレンジ映像の生成方法。
In process F,
A process C for detecting an overflow region X in a long-time image,
A process D for detecting a region Y that is predicted to overflow if the image is captured for a long time in an image captured for a short time;
A process of performing pattern matching of two image areas,
Separated into, - the image of the short imaging region Y and the other region Y by a process D
Separated into, - other areas X1 long time image of the imaging an area X1 immediately before the process C
Separated into, - other areas X2 long time image of the imaging an area X2 immediately after the process C
An intermediate image X3 at a short time imaging time is generated from the two regions X1 and X2 by the process of performing pattern matching of the images of the two regions,
Intermediate image X3 - the region Y - after cutting out a region overlapping the positionally by synthesizing an area Y after the magnification correction of the luminance values of the pixels, and a long imaging short imaging before and immediately The method for generating a high dynamic range image according to claim 3 , wherein an image at a short imaging time is synthesized from three short imaging images immediately after.
撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、
長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Aと、
短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Bの異なる2つの合成器とを有し、
長時間撮像時刻における画像については合成器Aを用い、短時間撮像時刻における画像については合成器Bを用い、
合成器Aは、
長時間撮像の画像内にあるオーバーフロー領域Xを検出する検出器Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、
2領域の輪郭線のパターンマッチングを行うパターンマッチング器とを有し、
検出器Cを用いて長時間撮像画像を領域Xとそれ以外の領域X - に分離し、検出器Dを用いて直後または直前の短時間撮像画像から領域Yを抜き出し、該パターンマッチング器を用いて領域Yの位置、形状を領域Xの位置、形状に合わせた後で画素の輝度値の倍率補正を行った後に、領域X - と合成することによって、長時間撮像と直後または直前の短時間撮像の2画像から長時間撮像時刻における画像を合成するものである
ことを特徴とする高ダイナミックレンジ映像の生成装置。
In an apparatus that generates a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging apparatus that can variably control the imaging time,
A synthesizer A that synthesizes a high dynamic range image at a long imaging time from two images of long imaging and immediately or immediately before short imaging;
Two synthesizers different from synthesizer B for synthesizing a high dynamic range image at a short time imaging time than two images of short time imaging and immediately after or immediately before long time imaging,
Long using the synthesizer A is an image of the imaging time, an image in a short time imaging time have use the synthesizer B,
Synthesizer A
A detector C for detecting an overflow region X in an image captured for a long time;
A detector D for detecting a region Y that is predicted to overflow if the image is captured for a long time in an image captured for a short time;
A pattern matching unit that performs pattern matching of contour lines of two regions,
The long-time captured image is separated into the region X and the other region X using the detector C, the region Y is extracted from the short-time captured image immediately after or immediately before using the detector D, and the pattern matching unit is used. position of the area Y Te, the position of the shaped region X, after the magnification correction of the luminance value of the pixel after conforming to the shape, area X - and by synthesizing a long time imaging and immediately or shortly before a brief An apparatus for generating a high dynamic range video, wherein the image at a long imaging time is synthesized from two captured images .
撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、
長時間撮像と直後または直前の短時間撮像の2画像より長時間撮像時刻における高ダイ ナミックレンジ画像を合成する合成器Aと、
短時間撮像と直後または直前の長時間撮像の2画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Bの異なる2つの合成器とを有し、
長時間撮像時刻における画像については合成器Aを用い、短時間撮像時刻における画像については合成器Bを用い、
合成器Bは、
長時間撮像の画像内にあるオーバーフロー領域Xを検出する検出器Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、
2領域の輪郭線のパターンマッチングを行うパターンマッチング器とを有し、
検出器Dを用いて短時間撮像画像を領域Yとその他の領域Y - に分離し、検出器Cを用いて直後または直前の長時間撮像画像を領域Xとその他の領域X - に分離し、該パターンマッチング器を用いて領域X - の位置、形状を領域Y - の位置、形状に合わせた後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直後または直前の長時間撮像の2画像から短時間撮像時刻における画像を合成するものである
ことを特徴とする高ダイナミックレンジ映像の生成装置。
In an apparatus that generates a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging apparatus that can variably control the imaging time,
Long and synthesizer A for synthesizing a high dynamic range image in long imaging times than two images of short imaging immediately or just before the imaging,
Two synthesizers different from synthesizer B for synthesizing a high dynamic range image at a short time imaging time than two images of short time imaging and immediately after or immediately before long time imaging,
For the image at the long imaging time, use the synthesizer A, for the image at the short imaging time, use the synthesizer B,
Synthesizer B
A detector C for detecting an overflow region X in an image captured for a long time;
A detector D for detecting a region Y that is predicted to overflow if the image is captured for a long time in an image captured for a short time;
A pattern matching unit that performs pattern matching of contour lines of two regions,
The detector D is used to separate the short-time captured image into the region Y and the other region Y , and the detector C is used to separate the long-time captured image immediately after or immediately before into the region X and the other region X , By combining the position and shape of the region X − with the position and shape of the region Y using the pattern matching unit and then combining with the region Y after the magnification correction of the luminance value of the pixel, An apparatus for generating a high dynamic range video, wherein an image at a short imaging time is synthesized from two images of imaging and long-time imaging immediately after or immediately before .
撮像時間を可変に制御できる撮像装置を用いて長時間撮像と短時間撮像を交互に繰り返して高ダイナミックレンジ映像を生成する装置において、
長時間撮像と直前の短時間撮像と直後の短時間撮像の3画像より長時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Eと、
短時間撮像と直前の長時間撮像と直後の長時間撮像の3画像より短時間撮像時刻における高ダイナミックレンジ画像を合成する合成器Fの異なる2つの合成器とを有し、
長時間撮像時刻における画像については合成器Eを用い、短時間撮像時刻における画像については合成器Fを用いる
ことを特徴とする高ダイナミックレンジ映像の生成装置。
In an apparatus that generates a high dynamic range image by alternately repeating long-time imaging and short-time imaging using an imaging apparatus that can variably control the imaging time,
A synthesizer E for synthesizing a high dynamic range image at a long imaging time from three images of a long imaging, a short imaging immediately before and a short imaging immediately after;
Two synthesizers different from the synthesizer F for synthesizing a high dynamic range image at a short time imaging time than the three images of the short time imaging, the immediately preceding long time imaging, and the immediately following long time imaging,
An apparatus for generating a high dynamic range image, wherein a synthesizer E is used for an image at a long imaging time, and a synthesizer F is used for an image at a short imaging time.
合成器Eは、
長時間撮像の画像中にあるオーバーフロー領域Xを検出する検出器Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、
2領域の画像のパターンマッチングを行うパターンマッチング器とを有し、
検出器Cを用いて長時間撮像の画像を領域Xとそれ以外の領域X-に分離し、検出器Dを用いて直前の短時間撮像の画像から領域Y1を切り出し、検出器Dを用いて直後の短時間撮像の画像から領域Y2を切り出し、領域Y1と領域Y2から該パターンマッチング器を用いて長時間撮像時刻における中間画像Y3を生成し、中間画像Y3から領域Xと位置的に重なる領域を切り出し、画素の輝度値の倍率補正を行った後で、領域X-と合成することによって、長時間撮像と直前の短時間画像と直後の短時間撮像の3画像から長時間撮像時刻における画像を合成するものである
ことを特徴とする請求項8に記載の高ダイナミックレンジ映像の生成装置。
Synthesizer E
A detector C for detecting an overflow region X in an image captured for a long time;
A detector D for detecting a region Y that is predicted to overflow if the image is captured for a long time in an image captured for a short time;
A pattern matching unit that performs pattern matching of images in two regions,
A long-time image is separated into region X and other region X using detector C, region Y1 is cut out from the previous short-time image using detector D, and detector D is used. A region Y2 is cut out from a short-time captured image immediately after, an intermediate image Y3 at a long-time imaging time is generated from the region Y1 and the region Y2 using the pattern matching unit, and a region that overlaps the region X from the intermediate image Y3 , And after correcting the magnification of the luminance value of the pixel, by combining with the region X , an image at the long-time imaging time is obtained from the three images of the long-time imaging, the immediately preceding short-time image, and the immediately following short-time imaging. The high dynamic range video generation apparatus according to claim 8 , wherein the high dynamic range video generation apparatus is combined.
合成器Fは、
長時間撮像の画像中にあるオーバーフロー領域Xを検出する検出器Cと、
短時間撮像の画像において長時間撮像であったならオーバーフローすると予測される領域Yを検出する検出器Dと、
2領域の画像のパターンマッチングを行うパターンマッチング器とを有し、
検出器Dを用いて短時間撮像の画像を領域Yとその他の領域Y-に分離し、検出器Cを用いて直前の長時間撮像の画像を領域X1とその他の領域X1-に分離し、検出器Cを用いて直後の長時間撮像の画像を領域X2とその他の領域X2-に分離し、領域X1-と領域X2-から該パターンマッチング器を用いて短時間撮像時刻における中間画像X3-を生成し、中間画像X3-から領域Y-と位置的に重なる領域を切り出した後で、画素の輝度値の倍率補正を行った後の領域Yと合成することによって、短時間撮像と直前の長時間撮像と直後の短時間撮像の3画像から短時間撮像時刻における画像を合成するものである
ことを特徴とする請求項8に記載の高ダイナミックレンジ映像の生成装置。
The synthesizer F
A detector C for detecting an overflow region X in an image captured for a long time;
A detector D for detecting a region Y that is predicted to overflow if the image is captured for a long time in an image captured for a short time;
A pattern matching unit that performs pattern matching of images in two regions,
Using the detector D, the short-time image is separated into the region Y and the other region Y , and using the detector C, the immediately previous long-time image is separated into the region X1 and the other region X 1 , separated into regions X1 - - detector other regions X2 long time image of the imaging an area X2 immediately using C and region X2 - intermediate image in a short time capturing time by using the pattern matching unit from X3 - Is extracted from the intermediate image X3 and the region Y is overlapped with the region Y , and then combined with the region Y after the pixel luminance value magnification correction is performed. The high dynamic range video generation device according to claim 8 , wherein the image at the short time imaging time is synthesized from the three images of the long time imaging and the short time imaging immediately thereafter.
請求項1から請求項5のいずれか1項に記載の高ダイナミックレンジ映像の生成方法における過程を、コンピュータに実行させるためのプログラムとした
ことを特徴とする高ダイナミックレンジ映像の生成方法の実行プログラム。
An execution program for a high dynamic range video generation method, characterized in that a program for causing a computer to execute the process in the high dynamic range video generation method according to any one of claims 1 to 5 is provided. .
請求項1から請求項5のいずれか1項に記載の高ダイナミックレンジ映像の生成方法における過程を、コンピュータに実行させるためのプログラムとし、
該プログラムを、該コンピュータが読み取りできる記録媒体に記録した
ことを特徴とする高ダイナミックレンジ映像の生成方法の実行プログラムを記録した記録媒体。
A program for causing a computer to execute the process in the high dynamic range video generation method according to any one of claims 1 to 5 ,
A recording medium recording an execution program for a high dynamic range video generation method, wherein the program is recorded on a recording medium readable by the computer.
JP2001227008A 2001-07-27 2001-07-27 High dynamic range video generation method and apparatus, execution program for the method, and recording medium for the execution program Expired - Fee Related JP3740394B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001227008A JP3740394B2 (en) 2001-07-27 2001-07-27 High dynamic range video generation method and apparatus, execution program for the method, and recording medium for the execution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001227008A JP3740394B2 (en) 2001-07-27 2001-07-27 High dynamic range video generation method and apparatus, execution program for the method, and recording medium for the execution program

Publications (2)

Publication Number Publication Date
JP2003046857A JP2003046857A (en) 2003-02-14
JP3740394B2 true JP3740394B2 (en) 2006-02-01

Family

ID=19059731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001227008A Expired - Fee Related JP3740394B2 (en) 2001-07-27 2001-07-27 High dynamic range video generation method and apparatus, execution program for the method, and recording medium for the execution program

Country Status (1)

Country Link
JP (1) JP3740394B2 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6879731B2 (en) * 2003-04-29 2005-04-12 Microsoft Corporation System and process for generating high dynamic range video
TWI246031B (en) * 2004-09-17 2005-12-21 Ulead Systems Inc System and method for synthesizing multi-exposed image
JP2007300463A (en) * 2006-05-01 2007-11-15 Opt Kk Camera system and image processing method
JP5566048B2 (en) * 2009-04-28 2014-08-06 キヤノン株式会社 Display device and control method thereof
JP5214538B2 (en) 2009-05-25 2013-06-19 オリンパス株式会社 Image acquisition apparatus, image composition method, and microscope system
KR101633460B1 (en) 2009-10-21 2016-06-24 삼성전자주식회사 Method and Apparatus for controlling multi-exposure
JP5432799B2 (en) 2010-03-30 2014-03-05 オリンパスイメージング株式会社 Imaging apparatus, imaging system, and imaging method
JP2011234342A (en) 2010-04-08 2011-11-17 Canon Inc Image processor and control method thereof
JP5066249B2 (en) * 2010-05-26 2012-11-07 オリンパスイメージング株式会社 Imaging apparatus and imaging method
JP5713752B2 (en) 2011-03-28 2015-05-07 キヤノン株式会社 Image processing apparatus and control method thereof
JP5814610B2 (en) * 2011-05-06 2015-11-17 キヤノン株式会社 Image processing apparatus, control method therefor, and program
JP5980618B2 (en) * 2012-08-09 2016-08-31 オリンパス株式会社 Image processing apparatus and image processing method
JP6343200B2 (en) * 2014-07-31 2018-06-13 キヤノン株式会社 Imaging apparatus, control method therefor, and program
KR102628911B1 (en) * 2019-01-07 2024-01-24 삼성전자주식회사 Method of processing image and image processing device performing the same
CN110175255B (en) * 2019-05-29 2022-04-05 腾讯医疗健康(深圳)有限公司 Image annotation method, and annotation display method and device based on pathological image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3666900B2 (en) * 1994-04-25 2005-06-29 キヤノン株式会社 Imaging apparatus and imaging method
JP2000078480A (en) * 1998-08-31 2000-03-14 Sony Corp Device and method for picking up image
JP4284570B2 (en) * 1999-05-31 2009-06-24 ソニー株式会社 Imaging apparatus and method thereof
JP4742453B2 (en) * 2001-06-20 2011-08-10 ソニー株式会社 Imaging method and apparatus

Also Published As

Publication number Publication date
JP2003046857A (en) 2003-02-14

Similar Documents

Publication Publication Date Title
JP3740394B2 (en) High dynamic range video generation method and apparatus, execution program for the method, and recording medium for the execution program
US10277812B2 (en) Image processing to obtain high-quality loop moving image
US7511730B2 (en) Image processing apparatus and method and image pickup apparatus
US7612909B2 (en) Image processing apparatus and method, and image-capturing apparatus based on the difference between a signal detected by a sensor and the real world
JP5687553B2 (en) Image composition apparatus, image composition method, and image composition program
JP2005229198A (en) Image processing apparatus and method, and program
US7221778B2 (en) Image processing apparatus and method, and image pickup apparatus
JP5803467B2 (en) Image processing apparatus, imaging apparatus, and image processing method
US7024050B2 (en) Image processing apparatus
JP2010021698A (en) Image processing device, and program
JP3866957B2 (en) Image synthesizer
JP2011097246A (en) Image processing apparatus, method, and program
KR20150108774A (en) Method for processing a video sequence, corresponding device, computer program and non-transitory computer-readable medium
JP4507948B2 (en) Imaging apparatus, image processing method and program for captured image
CN110958361B (en) Image pickup apparatus capable of HDR composition, control method therefor, and storage medium
US7412075B2 (en) Picture processing apparatus for processing picture data in accordance with background information
US7352917B2 (en) Image processing apparatus and method, and image pickup apparatus
JP2006325274A (en) Imaging device
JP4622711B2 (en) Image composition apparatus, image composition method, and program
CN110033421B (en) Image processing method, image processing device, storage medium and electronic equipment
JP2019047336A (en) Image processing apparatus, imaging device, image processing method, and program
JPH07212653A (en) Picture processing unit
JP2008141616A (en) Motion vector calculating apparatus, method and program, moving image compressing and recording device, and imaging apparatus
JP2002223355A (en) Image processor and recording medium with image processing program recorded thereon
JP2016129281A (en) Image processor

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051107

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101111

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101111

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111111

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111111

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121111

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121111

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131111

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees