JPWO2008053765A1 - 画像生成装置および画像生成方法 - Google Patents

画像生成装置および画像生成方法 Download PDF

Info

Publication number
JPWO2008053765A1
JPWO2008053765A1 JP2007557268A JP2007557268A JPWO2008053765A1 JP WO2008053765 A1 JPWO2008053765 A1 JP WO2008053765A1 JP 2007557268 A JP2007557268 A JP 2007557268A JP 2007557268 A JP2007557268 A JP 2007557268A JP WO2008053765 A1 JPWO2008053765 A1 JP WO2008053765A1
Authority
JP
Japan
Prior art keywords
image
moving image
resolution
speed
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007557268A
Other languages
English (en)
Other versions
JP4215266B2 (ja
Inventor
今川 太郎
太郎 今川
吾妻 健夫
健夫 吾妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP4215266B2 publication Critical patent/JP4215266B2/ja
Publication of JPWO2008053765A1 publication Critical patent/JPWO2008053765A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

対応点検出や動き検出が正確に行えない画像領域も含めて複数の動画像を統合した新たな動画像を生成する画像生成装置は、撮像装置(10)を制御して1つの露光期間中に露光量を時間的に変化させる露光制御部(105)と、露光制御部(105)の制御下で撮影された第1動画像と第2動画像とを取得する画像入力部(101)と、前記第1動画像と第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、前記第2動画像のフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合部(104)とを備え、前記第2動画像は前記第1動画像よりも解像度が高く、かつ前記第2動画像は前記第1動画像よりもフレームの露光時間が長い。

Description

本発明は、動画像を生成する画像生成装置に関し、特に、複数の動画像から夫々の優れた特性を併せ持つ新たな動画像を生成する画像生成装置に関する。
デジタル撮像デバイスの進展に伴い、高空間解像度の静止画像を比較的低コストで撮影することが可能となってきている。しかしながら、このような高空間解像度の静止画と同等の空間解像度を保ちながら滑らかに動く動画像(例えば、30フレーム/秒程度)や更に高速度の撮影を実現するには課題がある。
これは、単位時間あたりに得られる画像の情報量が莫大になるために、撮像デバイス内での画像情報の転送速度が不足することや、並列に画像情報を転送するなどの特殊な撮像デバイスを必要とする為、撮像装置のコストが増加したり、撮像デバイスの特性の調整が別途必要になることに因る。
従来の時空間解像度(時間および空間の解像度)の高い画像を得る画像生成方法としては、高速低解像度カメラと低速高解像度カメラとの映像を用い、動画像のフレーム間の対応点検出を用いてモーフィングを行うものがある(例えば、特許文献1参照)。図1は、特許文献1に記載された従来の画像生成方法を説明する図である。なお、本明細書において、撮像能力または動画像の性質に関して、「高速」(または、「低速」)とは、フレームレートが相対的に大きい(または、小さい)ことを意味し、「高解像度」(または、「低解像度」)とは、空間解像度が相対的に高い(または、低い)ことを意味する。
図1において、高速低解像度カメラA01と低速高解像度カメラA02は同じ対象を同じ画角で同期して撮影している。カメラA01とカメラA02の撮影画像の関係を図2に示す。図2は、2つのカメラA01およびA02が撮影したフレームを時間の順に並べており、フレームB01とB02はカメラA02で得られた画像を表し、フレームB11〜B15は、カメラ01で得られた画像を表している。ここで空間解像度の違いは画像の大きさで表現しており、フレームB11〜B15は、フレームB01とB02に比べて画素数が少なく、空間解像度が低い。一方、カメラA01はカメラA02よりも撮影のフレームレートが高く、カメラA02が1フレーム撮影する間にカメラA01は4フレーム撮影している。また、カメラA02のフレーム撮影の時間に同期してカメラA01のフレーム撮影を行っている(フレームB01とフレームB11およびフレームB02とフレームB15は同じタイミングで撮影)。以下の例では、フレームB23の位置(フレームB13の撮影時間に相当)に相当する高解像度画像の中間フレーム画像の生成方法について説明する。
このようにして撮影したフレーム画像について、一次マッチング部A03はカメラA01の高速撮影画像において隣りあう各フレーム間の画素の対応関係を求める。ここで、対応関係とは、あるフレーム画像内の各画素が映す対象の部位が他方のフレーム画像内のどの画素位置に写っているかの関係である。次に、隣り合う高速画像間の対応関係をつなぎ合わせることで、生成したいフレームB23の時刻に位置する高速カメラ画像B13と、高速画像と低速画像を同期して撮影しているフレームB11との画素間の対応関係を求める。
次に、二次マッチング部A04は、高速画像と低速画像を同期して撮影しているフレームB01とフレームB11との画素の位置関係、フレームB13とフレームB23との画素の位置関係、および、一次マッチング部A03で求めたフレームB11とフレームB13との対応関係をつなぎ合わせることで、フレームB01とフレームB23との画素の対応関係を決定する。
次に、画像生成部A05は、フレームB01とフレームB23との画素の対応関係を用いて、フレームB01の画素値を用いてフレームB23の画素値を決定し、高解像中間フレーム画像B23を生成する。同様の手順で他の中間フレームを生成することで、高解像度かつ高速の映像を生成する。
また、非特許文献1や非特許文献2などでも同様に、高速低解像度カメラと低速高解像度カメラとの映像を用い、高速カメラの映像から動き検出を行い、その動きに合わせて低速高解像度動画像に対してモーフィングを行うことで高解像度の中間フレーム画像を生成している。
特開2003−203237号公報(図13) Toru MATSUNOBU,et al.,"Generation of High Resolution Video Using Morphing",Technical report of IEICE,PRMU2004−178 Kiyotaka Watanabe,et al.,"Generation of High Resolution Video Sequence from Two Video Sequences with Different Spatio−temporal Frequencies",情報科学技術レターズ(FIT2004),Vol.3,No.LI−004,2004
しかしながら、上記従来の技術では、高速画像において隣り合うフレーム間で対応関係を正確に求めることや、動き検出を正確に行えることが前提となっており、対応関係が正確に求まらない場合や、動き検出が行えない場合には、生成する画像が大きく劣化したり、低解像度画像を単に拡大した画像になってしまうという課題を有している。一般的に、画像中の動物体の動きが複雑な場合や照明状態が変化する場合やオクルージョンが発生する場合やアパーチャ問題が発生する場合などには、フレーム間の対応点を求めることや動き検出を全ての画素について正確に求めることは困難である。
そこで、本発明は、上記従来の課題を解決するものであり、対応点検出や動き検出が正確に行えない画像領域も含めて複数の動画像を統合した新たな動画像を生成することができる画像生成装置およびその方法を提供することを目的とする。
上記目的を達成するために、本発明に係る画像生成装置は、外部の撮像装置によって同一事象を撮影して得られた第1動画像及び第2動画像から、前記事象を表す新たな動画像を生成する画像生成装置であって、前記第2動画像の解像度は前記第1動画像の解像度よりも高く、かつ前記第2動画像のフレームの露光時間は前記第1動画像のフレームの露光時間よりも長く、前記撮像装置を制御することにより、前記第2動画像の1つのフレームの露出期間中の露光量を時間的に変化させる露光制御手段と、前記撮像装置から、前記第1動画像と、前記露光制御手段の制御下で撮影された前記第2動画像とを取得する画像入力手段と、前記取得された第1動画像と第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、前記第2動画像のフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合手段とを備える。
このような構成によって、前記画像入力手段が、例えば、高速フレームレートで低解像度の第1動画像と低速フレームレートで高解像度の第2動画像を受け付けた場合には、前記画像統合手段は、前記第1動画像と同じフレームレートで前記第2動画像と同じ解像度の動画像を前記新たな動画像として生成することができる。つまり、入力された複数の動画像の夫々の優れた特性を併せ持つ新たな動画像が生成される。
更に、前記露光制御手段が、前記第2動画像の露出期間中の露光量を時間的に変化させることで、時間周波数の高い情報を取得することが可能となり、生成される動画像の高周波の特性を向上させることが可能となる。
なお、本発明は、このような画像生成装置として実現できるだけでなく、画像生成方法、その方法をコンピュータに実行させるプログラム、そのプログラムを記録したCD−ROM等のコンピュータ読み取り可能な記録媒体等としても実現することができる。
本発明の画像生成装置によれば、動画像中において必ずしも動きや対応点が正確に求まらない画像領域を含んでいる場合にでも、その画像の時空間解像度を動画像全体で向上させた新たな動画像が生成される。たとえば、高速低解像度動画像と低速高解像度動画像とから、夫々の優れた特性を併せ持つ高速高解像度動画像が確実に生成される。
図1は、従来の画像生成装置の構成を示すブロック図である。 図2(a)および(b)は、従来の画像生成装置における入力画像の時系列を示す図である。 図3は、本発明の実施の形態における画像生成システムのハードウェア構成を示すブロック図である。 図4は、画像生成装置の構成を示す機能ブロック図である。 図5は、画像生成装置の動作を示すフローチャートである。 図6(a)および(b)は、入力画像の時系列の一例を示す図である。 図7(a)〜(c)は、撮像装置の具体例を示す図である。 図8(a)〜(c)は、それぞれ、生成する高速高解像度動画像、入力される高速低解像度動画像および低速高解像度動画像の画素配置の一例を示す図である。 図9(a)〜(c)は、画素値を補正する場合における入射光量と画素値との関係の例を示すグラフである。 図10(a)および(b)は、高速低解像度動画像で求めた動き検出結果と高速高解像度動画像との関係を示す図である。 図11(a)〜(d)は、生成する高速高解像度動画像のフレーム画像の一例を示す図である。 図12(a)〜(d)は、入力される高速低解像度動画像のフレーム画像の一例を示す図である。 図13は、入力される低速高解像度動画像のフレーム画像の一例を示す図である。 図14(a)〜(d)は、信頼度の分布例を示す図である。 図15(a)〜(d)は、生成された動画像のフレーム画像の一例を示す図である。 図16(a)〜(d)は、信頼度を用いないで生成した場合の動画像のフレーム画像の一例を示す図である。 図17(a)〜(e)は、理想的な高速高解像度画像のフレーム画像の一例を示す図である。 図18(a)〜(e)は、高速低解像度画像のフレーム画像の一例を示す図である。 図19(a)および(b)は、短時間露出で撮影した低速高解像度画像のフレーム画像の一例を示す図である。 図20(a)および(b)は、長時間露出で撮影した低速高解像度画像のフレーム画像の一例を示す図である。 図21(a)〜(e)は、短時間露出で生成したフレーム画像の一例を示す図である。 図22(a)〜(e)は、短時間露出で生成したフレーム画像の一例を示す図である。 図23(a)〜(e)は、長時間露出で生成したフレーム画像の一例を示す図である。 図24(a)〜(e)は、長時間露出で生成したフレーム画像の一例を示す図である。 図25(a)および(b)は、フレームの露光期間中の露光量の時間変化を示す図である。 図26(a)〜(c)は、入力画像の露光タイミングと生成画像における仮想的な露光タイミングとの関係を説明する図である。 図27(a)〜(c)は、高速低解像度画像のフレーム画像の一例を示す図である。 図28は、低速高解像度画像のフレーム画像の一例を示す図である。 図29(a)〜(c)は、生成したフレーム画像の一例を示す図である。 図30(a)〜(c)は、高速低解像度画像のフレーム画像の一例を示す図である。 図31は、露光量を変化させた場合の低速高解像度画像のフレーム画像の一例を示す図である。 図32(a)〜(c)は、露光量を変化させた場合の生成したフレーム画像の一例を示す図である。 図33(a)および(b)は、フレームの露光期間中の露光量の時間変化を示す図である。 図34は、生成した画像の信頼度を用いて画像を符号化する圧縮率を変化させる場合の信頼度と圧縮率との関係の一例を示すグラフである。 図35は、カラーの動画像を統合する場合の処理手順を示すフローチャートである。 図36は、領域分割処理の一例を示す図である。 図37は、画像生成システムの具体例を示すブロック図である。 図38は、画像生成システムの具体例を示すブロック図である。
符号の説明
10 撮像装置
20 画像記憶装置
30 画像生成装置
40 表示装置
100 画像生成システム
101 画像入力部
101a 高速画像入力部
101b 低速画像入力部
102 符号化部
103 動き検出部
103a 動き分布算出部
103b 動き信頼度分布算出部
103c センサ入力部
104 画像統合部
104a 統合処理部
104b 拘束制御部
104c 動き拘束指定部
104d 外部モデル拘束部
104e 拘束指定部
105 露光制御部
106a 減光部
106b 照明部
300 カメラ
400 ディスプレイ機器
本発明の画像生成装置は、外部の撮像装置によって同一事象を撮影して得られた第1動画像及び第2動画像から、前記事象を表す新たな動画像を生成する画像生成装置であって、前記第2動画像の解像度は前記第1動画像の解像度よりも高く、かつ前記第2動画像のフレームの露光時間は前記第1動画像のフレームの露光時間よりも長く、前記撮像装置を制御することにより、前記第2動画像の1つのフレームの露出期間中の露光量を時間的に変化させる露光制御手段と、前記撮像装置から、前記第1動画像と、前記露光制御手段の制御下で撮影された前記第2動画像とを取得する画像入力手段と、前記取得された第1動画像と第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、前記第2動画像のフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合手段とを備える。
ここで、前記露光制御手段は、前記第2動画像の1つのフレームの露光期間中に少なくとも1回、前記露光量を低減させる無露光期間を設けてもよく、前記露光制御手段は、さらに、前記撮像装置を制御することにより、前記第1動画像の露光量を、前記第2動画像の無露光期間において低減させてもよい。また、前記第2動画像の1つのフレームの露光期間中に含まれる前記第1動画像の1以上のフレームのそれぞれの露光期間において、前記第2動画像の前記フレームの露光が行われるように、前記第2動画像の露光量を変化させてもよい。
この構成によれば、短い露光時間のために前記第1動画像に含まれる時間周波数の高い情報と、高い解像度のために前記第2動画像に含まれる空間周波数の高い情報とが、前記新たな動画像のフレームに反映されるため、時空間解像度に優れた前記新たな動画像が得られる。前記第2動画像の露出時間中の露光量を時間的に変化させることは、前記第2動画像が時間周波数のより高い情報を持つことができ、その結果、前記新たな動画像の時間解像度の向上に役立つ。
また、前記撮像装置が、前記第2動画像を撮影する際、被写体からの入射光量を外部からの制御に応じた量低減させる減光手段を備える場合には、前記露光制御手段は、前記減光手段を制御することによって、前記露光量を時間的に変化させることができる。
また、前記撮像装置が、前記第2動画像を撮影する際、外部からの制御に応じた強さで被写体を照明する照明手段を備える場合には、前記露光制御手段は、前記照明手段を制御することによって、前記露光量を時間的に変化させることができる。
(実施の形態)
以下、図面を参照しながら本発明の実施の形態に係る画像生成システムについて詳細に説明する。
図3は、本発明の実施の形態に係る画像生成システムのハードウェア構成を示すブロック図である。
画像生成システム100は、同一の対象についての複数の動画像(ここでは、高速低解像度動画像および低速高解像度動画像)から時空間解像度の高い新たな動画像(ここでは、高速高解像度動画像)を生成するシステムであり、撮像装置10と、画像記憶装置20と、画像生成装置30と、表示装置40とを備えている。撮像装置10は、被写体を撮影し、異なる2種類の時空間解像度で動画像(ここでは、同一の対象についての高速低解像度動画像および低速高解像度動画像)を得るカメラ等である。画像記憶装置20は、撮像装置10で撮像された動画像を一時的に記憶するメモリ等である。画像生成装置30は、画像記憶装置20に記憶された動画像を読み出し、読み出した複数の動画像から、時空間解像度を高めた新たな動画像を生成する装置である。表示装置40は、画像生成装置30で生成された新たな動画像を表示する表示装置である。なお、画像生成装置30は、専用回路等のハードウェアによって実現してもよいし、汎用の計算機における画像処理プログラム等のソフトウェアによって実現してもよい。
図4は、図3に示された画像生成システム100における撮像装置10と画像生成装置30の内部構成を示す機能ブロック図である。
撮像装置10は、減光部106aと照明部106bとを含んで構成される。
減光部106aは、画像生成装置30からの制御に応じて、時間的に変化可能な量で撮像される被写体からの入射光を低減させる。減光部106aは、例えば入射光を撮像素子に導く光学系(不図示)に配置された、電気的に制御可能なフィルタ又はシャッタであるとしてもよい。照明部106bは、画像生成装置30からの制御に応じて、時間的に変化可能な光量で被写体を照明する。
画像生成装置30は、画像入力部101と、動き検出部103と、画像統合部104と、露光制御部105とを備える。
露光制御部105は、減光部106a及び照明部106bのうち少なくとも一方を制御することによって、撮像装置10によって撮像される低速高解像度画像の1フレームの露出期間中の露光量を時間的に変化させる。
画像入力部101は、撮像装置10によって同一の対象物を撮像して得られる時空間解像度または時空間位相の異なる複数の動画像を取得するインターフェース等であり、高速(高速フレームレート)かつ低空間解像度で対象を撮影した動画像(高速低解像度動画像)を取得する高速画像入力部101aと、低速(低速フレームレート)かつ高空間解像度で同じ対象を撮影した動画像(低速高解像度動画像)とを取得する低速画像入力部101bとを有する。このように、高速画像入力部101aに入力された画像と低速画像入力部101bに入力された画像は、時空間解像度は異なるが、同じ対象を撮影した画像である。ここで、低速高解像度画像の1フレームの露出期間中の露光量は、減光部106a又は照明部106bによって時間的に変化可能であることに注意する。
動き検出部103は、画像入力部101に入力される画像を生成する撮像装置10の動きを検出するセンサ(撮像装置10に備えられた加速度センサ等)からの信号を取得するセンサ入力部103cと、画像入力部101に入力された画像及びセンサ入力部103cに入力された動き信号のうちの少なくとも一方に基づいて、入力画像中の画像(つまり、撮像の対象物)の動き検出を各フレームの画像全体において行う動き分布算出部103aと、動き分布算出部103aにおける動き検出の信頼度を各フレームの画像全体において算出する動き信頼度分布算出部103bとを有する。
画像統合部104は、画像入力部101に入力された複数の動画像のうち、信頼度の高い画像領域については動き検出部103による動き検出の結果を用いて新たな動画像を生成し、信頼度の低い領域については予め定められた一定の拘束条件を用いて複数の動画像を統合する処理部であり、統合処理部104aと、拘束制御部104bと、動き拘束指定部104cと、外部モデル拘束部104dと、拘束指定部104eとを有する。
動き拘束指定部104cは、動き分布算出部103aによる動き検出の結果を用いて、生成する高速高解像度動画像の各画素値が満たすべき拘束条件(以下、動き検出の結果に依存して指定される拘束条件を「動き拘束条件」という。)を指定する処理部である。
外部モデル拘束部104dは、生成する高速高解像度動画像の各画素値が動き分布算出部103aによる動き検出の結果とは別に満たすべき拘束条件(以下、動き検出の結果に依存することなく指定される拘束条件を「外部モデル拘束条件」という。)を指定する。
拘束制御部104bは、動き分布算出部103aで算出された動き検出の結果と動き信頼度分布算出部103bで算出された信頼度とを用いて、生成する高速高解像度動画像中の各フレーム画像中の各位置において、動き拘束条件と外部モデル拘束条件とをそれぞれ有効にする度合いを決定し、その度合を拘束指定部104eに通知する。
拘束指定部104eは、拘束制御部104bが決定した動き拘束条件と外部モデル拘束条件との有効度合いに基づいて、動き拘束指定部104cが指定する動き拘束条件と外部モデル拘束部104dが指定する外部モデル拘束条件とを統合した拘束条件、つまり、生成する高速高解像度動画像の各画素値が満たすべき拘束条件を指定する。
統合処理部104aは、拘束指定部104eによって指定される拘束条件に従って、高速画像入力部101aに入力された高速画像と低速画像入力部101bに入力された低速画像とを統合し、高速高解像度動画像を生成する。
符号化部102は、統合処理部104aによって生成された画像を圧縮符号化して出力する。
なお、本実施の形態における「フレーム」には、プログレッシブ方式におけるフレームだけでなく、インターレース方式における偶数フィールドおよび奇数フィールドが含まれる。
次に、以上のように構成された画像生成装置30が実行する処理について説明する。図5は、画像生成装置30が実行する処理のフローチャートである。
ステップ600では、露光制御部105が低速高解像度画像の1フレームの露光期間中の露光量の時間変化を設定する。ここでは、まず露光期間を通して露光量を一定にする場合の説明を行う。露光期間中の露光量を時間的に変化させる場合については後述する。
露光制御部105は、露光量を一定にする制御を撮像装置10に対して行う。撮像装置10は、露光制御部105からの制御下で、高速低解像度画像と低速高解像度画像とを撮影する。
ステップ601では、高速画像入力部101aが高速低解像度動画像の入力を受け付け、低速画像入力部101bが同一対象についての低速高解像度動画像の入力を受け付ける。以降、説明に用いる画像は輝度画像を用いて説明する。
高速画像入力部101aに入力される高速低解像度動画像と低速画像入力部101bに入力される低速高解像度動画像の関係を図6(a)および(b)に示す。図6(a)および(b)は、それら2つの画像の連続したフレーム画像を時間の順に並べており、フレーム201と202は低速高解像の画像を表し、フレーム211〜215は高速低解像の画像を表している。
本図において、空間解像度の違いは画像の大きさで表現されている。フレーム211〜215は、フレーム201と202に比べて画素数が少なく空間解像度が低い。一方、フレームレートについては、高速画像入力部101aは、低速画像入力部101bに比べ、撮影のフレームレートが高く、ここでは、低速画像入力部101bの1フレーム間隔で高速画像入力部101aは4フレーム撮影している。また、フレーム201と202の画像の時間方向の幅は露出時間を表している。低速画像入力部101bに入力される画像はフレームレートが低い分、高速画像入力部101aに入力される画像に比べて長い露出が可能となる。図6(a)では、低速高解像度動画像のフレーム201は、高速低解像度動画像の4フレーム間隔分の露出が行われている。
なお、高速画像入力部101aに入力されるフレームと低速画像入力部101bに入力されるフレームとの撮影タイミングは、時間の相対関係が既知であればよく、必ずしも同時に撮影される必要は無い(つまり、撮像タイミングにおける位相が異なっていてもよい)。また、長時間露出を行うことで、高解像度の画像中においても移動物体の移動軌跡のような動き情報を取得することが可能となる。高解像度画像から得た動き情報と矛盾のない動画像を後述する画像の統合処理において生成することで、時空間解像度の高い動画像を生成することが可能となる。
ここで、撮像装置10の具体例、つまり、2種類の画像を取得する撮影手段の例を示す。2種類の画像は、図7(a)のように、特性の異なる2種類のカメラを同一画角になるようにハーフミラーを用いて配置して撮影しても良いし、図7(b)のように、1つのカメラ内において特性の異なる2種類の撮像素子を同一画角になるようにハーフミラーやプリズムを用いて配置して撮影しても良いし、図7(c)のように特性の異なる2種類の画像を同時に撮影する撮像素子を用いても良い。
次に、図8(a)〜(c)を用いて、目的とする高速高解像度動画像の画素値(ここでは、輝度値)と、高速画像入力部101aで取得する高速低解像度動画像および低速画像入力部101bで取得する低速高解像度動画像の画素値(ここでは、輝度値)との関係を説明する。この関係は、高速高解像度動画像の各画素が満たすべき外部モデル拘束条件として画像生成に使用する。
ここで、各画像の画素値は撮像時の入射光量に比例し、比例定数も共通であるとする。図8(a)は、目的とする高速高解像度動画像の各フレームの画素の配置を示したものである。説明の便宜のため、高速高解像度動画像の一部を取り出して説明する。図8(a)は、縦(Y軸)方向3画素、横(X軸)方向3画素、4フレームの画素の配置を表している。画素位置(x,y,t)の画素の値をHH(x,y,t)とする。ここでxとyは0、1、2の値の範囲とし、tは0、1、2、3の値の範囲とする。
同様に、図8(b)は、図8(a)と同じ画角を同じ時間に撮影した高速低解像度動画像の画素の配置を示す。ここで、高速低解像度動画像の画素位置(xL,yL,t)の画素値をHL(xL,yL,t)と表す。低解像度画像と高解像度画像ではx、y方向の画素数が異なるため、低解像度画像のx、y座標値をそれぞれxL、yLと表して高解像度画像の場合と区別する。ここでは高解像度画像のx、y方向それぞれ3画素からなる9画素分の領域が低解像度画像の1画素に相当する関係にあり、画素値の関係は数1のようになる。
Figure 2008053765
同様に、図8(c)は、図8(a)と同じ画角を同じ時間に撮影した低速高解像度動画像の画素の配置を示す。ここで、低速高解像度動画像の画素位置(x,y,tL)の画素値をLH(x,y,tL)と表す。
高速画像と低速画像では時間方向のフレーム数が異なるため、低速画像のフレーム番号をtLと表して高速画像の場合と区別する。ここでは高速画像の4フレーム分の間隔が低速画像の1フレーム間隔に相当する関係にあり、画素値の関係は数2のようになる。
Figure 2008053765
ここで、G(t)は、時刻tの撮影強度を表し、撮像素子の感度や撮影時の絞りの時間的変化による画素値の変化倍率を示している。撮像素子の感度や撮影時の絞りに時間的変化が無い場合には、G(t)=1.0である。また、露光制御部による露光量の時間変化がない場合はG(t)=1.0となる。
なお、上記の例では時間tを離散的に表現しているが、連続的な時間変化と対応付ける場合には、数3の関係式を用いる。数1、数2のHH(x,y,t)を数3でHHcont(x,y,tcont)に置き換えることで、時間的に連続した入力に対する劣化過程を表現することが出来る。
Figure 2008053765
数3において、Δtは生成する高速高解像度画像のフレーム画像の仮想的な露出時間に相当し、tcontは連続した時間、HHcont(x,y,tcont)は時間的に連続な画像、Exp(tcont)は高速高解像度画像のフレーム画像の仮想的な露出の時間変化を表している。
図6(a)および(b)のように、高速画像の露出時間に対して低速画像の露出時間を長くすることで、長い時間にわたる動きの軌跡情報を蓄積することが可能となり、高速高解像度動画像を生成する上で動きの生じている部分の時空間解像度の改善に効果がある。
以上の例では、画素値は撮像時の入射光量に比例する場合(図9(a))で説明したが、γ補正等により比例しない場合(図9(b))や比例定数が画素によって異なる場合には、別途、画像が撮影されたときの撮像素子の入出力特性(入出力関係)を逆に対応付けて利用することで、入射光に対して同一の比例関係を持つ値に画素値を補正し、数1や数2の関係を満たすことができる。例えば、図9(c)のような画素値と補正値の対応関係を用いることで図9(b)のようにして得られた画素値を補正し、図9(a)のようにして得られた画素値と同様に処理することができる。
また、上述の説明では、画素値として輝度値を用いて説明したが、各画素にR、G、Bのカラー値が存在する場合にもR、G、Bの個々の値について輝度値と同様の関係が得られる。
他の外部モデル拘束としては、時空間的に隣り合う画素との画素値の連続性や滑らかさがある。画素値の連続性を用いる場合、
Figure 2008053765
のように高速高解像度動画像の隣り合う画素間の輝度値の差の二乗和Qsを考える。画素値の滑らかさを用いる場合には、
Figure 2008053765
のように高速高解像度動画像の隣り合う画素間の輝度値の二階差分の二乗和Qsを考える。ここで、数4、数5において、XmaxとYmaxとtmaxはそれぞれx方向画素番号、y方向画素番号、フレーム番号の最大値を示す。また、λs(x,y,t)は、拘束条件の時空間的分布を指定する係数であり、後述のステップ604において動きの信頼度を用いて決定する。
このように、外部モデル拘束条件は、生成する高速高解像度動画像に対する評価関数として表現することができる。その評価関数の値(評価値)を下げることが上記外部モデル拘束を生成する高速高解像度動画像に加えることに対応する。
他の外部モデル拘束として、エッジの時空間的連続性を用いても良い。この場合、例えば
Figure 2008053765
に示すように、時間的に隣り合うフレーム間で対応する位置のエッジの向きの変化は少ないという拘束や、
Figure 2008053765
のように、同じ向きのエッジは、そのエッジの方向に空間的に連続して存在するという拘束である。ここで数6、数7のedge(x,y,t,i)は、動画像中の(x,y,t)の位置に存在するi番目の向きのエッジの強度を示す。iはエッジの方向の種類を示し、iは0からimaxまでの整数値をとるものとする。また、数7の(ix,iy)はi番目のエッジの向きの方向を表すベクトルを示す。
また、u(x,y,t)、v(x,y,t)、は画像中の(x,y,t)の位置における動きベクトルのx方向成分とy方向成分を示す。エッジの検出は方位依存性を有するGaborフィルタなどのエッジ検出フィルタの出力を用いたり、数8のように微分演算でエッジの方向と強度を得た後、必要に応じてエッジの方向を離散化して用いることで実現できる。
Figure 2008053765
は高速高解像度動画像HHの座標(x,y,t)におけるエッジの向きと強度を2次元ベクトルとして表しており、ベクトルの向きがエッジの向きに対応し、ベクトルの大きさがエッジの強度に対応する。
ここで、λte(x,y,t)やλse(x,y,t)は、λs(x,y,t)と同様に、拘束条件の時空間的分布を指定する係数であり、後述のステップ604において動きの信頼度を用いて決定する。
また、他の拘束条件として、生成する動画像が表現し得る自由度を予め定めた動画像群の主成分に限定してもよい。例えば、動画像を構成する各フレームの各画素の輝度値HH(x,y,t)を独立な要素とし、動画像を1つのデータ点と考え、予め定めた同じフレーム数・画素数の動画像群に対して主成分分析を行い、主成分を優先して動画像を生成するものである。この場合、非主成分のベクトルをNPC(x,y,t)とし、生成する動画像をHH(x,y,t)に対して、非主成分NPCと生成する動画像HHとの内積を拘束条件とする。この場合、拘束条件は、
Figure 2008053765
のQpcようになる。NPCは1種類ではなく複数個用意しても良いし、入力画像によってNPCの種類を切り換えても良い。この場合、入力画像と高解像度時の主成分との関係を予め学習しておき、この結果を用いてNPCの選択を行えばよい。例えば、異なる3種類の高速高解像度の動画像群1・2・3を学習用の動画像として用意する。その動画像群それぞれから非主成分のベクトルNPC1・NPC2・NPC3を求める。別途、上記動画像群1・2・3のそれぞれから数1や数2の関係式を用いて高速低解像度動画像群HL1・HL2・HL3と高速高解像度動画像群HH1・HH2・HH3とを求める。
ここで学習すべき関係は、画像群HL1・HH1と画像群HL2・HH2と画像群HL3・HH3の3つの画像群と上記3種類の非主成分NPC1・NPC2・NPC3との対応関係である。対応関係の学習方法は任意の手法を用いてよく、画像群ごとに高速低解像度動画像HLと高速高解像度動画像HHの平均画像の組を求めておき、平均画像の組と非主成分の種類との対応関係を保持しておく(学習)。
新たな入力画像HL・HHの組に対して平均画像の組との差を求め、差の最も小さい平均画像の組に対応する非主成分を入力画像の復元処理に用いるようにする。
平均画像と非主成分の種類との関係を保持する替わりに、高速低解像度動画像HLと高速高解像度動画像HHを入力とし、それらHLとHHに対応する非主成分の種類を出力とした入出力関係をニューラルネットワーク等の学習手法を用いて求めておき、学習後には入力画像HL・HHの組をニューラルネットワークに入力して、出力として得られる種類の非主成分を拘束条件として用いるようにしてもよい。
ここで、λpc(x,y,t)も上記λs(x,y,t)と同様に拘束条件の時空間的分布を指定する係数で後述のステップ604において、動きの信頼度を用いて決定する。
次に、ステップ602では、動き検出部103が、高速低解像度動画像から画像中の動きとその動きの信頼度を算出する。ここで、高速画像入力部101aから得た動画像の各フレーム画像の各位置において、動き分布算出部103aが被写体の動きの向きと大きさを求め(動き検出)、動きの向きと大きさの時空間的分布を求める。
また、動き信頼度分布算出部103bは、動き検出の信頼度の時空間的分布Conf(x,y,t)を併せて求める。この場合、動き検出の信頼度とは、信頼度が高い程、動き検出の結果が尤もらしく、信頼度が低い場合には動き検出の結果に誤りがあることを意味する。
隣り合う2フレーム画像間の画像上の各位置での動きの求め方については、例えば、P.ANANDAN,“A Computational Framework and an Algorithm for the Measurement of Visual Motion”,IJCV,2,283−310(1989)(非特許文献3)で用いられる方法や動画像符号化で一般的に用いられる動き検出手法や、画像を用いた移動体追跡などで用いられる特徴点追跡手法などを用いることができる。
また、画像全体の大域的動き(アフィン動きなど)検出の一般的手法や、Lihi Zelkik−Manor、“Multi−body Segmentation:Revisiting Motion Consistency”、ECCV(2002)(非特許文献4)などの手法を用いて複数の領域ごとの動き検出を行い、各画素位置での動きとして用いてもよい。
信頼度の求め方については、上記(非特許文献3)の文献に記載の方法を用いてもよく、ブロックマッチングを用いた動き検出の場合には、数10のように、動きに対応するブロック同士の画素値の差の2乗和を差の2乗和が取り得る最大値SSDmaxから引いた値、つまりブロック同士の画素値の差の2乗和の符号を逆にした値Conf(x,y,t)を信頼度として用いても良い。また、画像の大域的動き検出や領域ごとの動き検出を用いた場合にも、各画素位置の動きの始点近傍領域と終点近傍領域との画素値の差の2乗和を2乗和が取り得る最大値SSDmaxから引いた値Conf(x,y,t)を信頼度として用いても良い。
Figure 2008053765
数10において、位置(x’,y’,t+1)は、動き検出の結果として得られた画素位置(x,y,t)の移動先に相当する画素位置である。また、数10のΣはブロックマッチングで用いるブロック領域内での加算を表す。
なお、上記説明では、高速画像入力部101aから得た画像を用いて動き検出と信頼度算出を行ったが、同様の動き検出処理を低速画像入力部101bから得た画像に対して動き検出と信頼度算出を行っても良い。
また、撮影機器の姿勢の変化を検出するセンサの情報(センサ入力部103cに入力されてくる信号)を入力として用いても良い。この場合、撮像装置10が加速度や角加速度センサを備え、センサ入力部103cが加速度の積分値として速度や角速度を得ることで、動き分布算出部103aは、センサ入力部103cに入力された情報から、手ブレなどのようなカメラの姿勢の変化による画像全体の動きの情報を得ることができる。
例えば、画像入力部101としてカメラを用いた場合、そのカメラに水平方向と垂直方向の角加速度センサを備えることで、そのセンサの出力から水平方向と垂直方向の加速度を各時刻における姿勢計測値として得ることができる。加速度値を時間で積分すると各時刻の角速度を算出することができる。
カメラが時刻tに水平方向にωhの角速度を持ち、垂直方向にωvの角速度も持つ場合、カメラの角速度はカメラの向きの起因する撮像素子上(撮影画像上)の位置(x,y)における時刻tにおける像の2次元的動き(u,v)と一意に対応付けることができる。
カメラの角速度と撮像素子上での像の動きとの対応関係は、カメラの光学系(レンズなど)の特性(焦点距離やレンズひずみなど)と撮像素子との配置や撮像素子の画素間隔とから一般的に決定できる。実際に算出するには、光学系の特性と撮像素子の配置や画素間隔から幾何学的・光学的に算出して対応関係を得るか、あらかじめ対応関係をテーブルとして保持しておき、カメラの角速度ωh・ωvから、撮像素子上(x,y)の像の速度(u,v)を参照するようにしてもよい。
このようなセンサを用いた動き情報も画像から得た動き検出の結果と合せて用いても良い。この場合、動き分布算出部103aは、画像全体の動き検出には主にセンサの情報を用い、画像内での対象の動きは画像を用いた動き検出の結果を使用すればよい。
次に、ステップ603では、動き拘束指定部104cが動き検出部103が求めた動き検出結果と、目的とする高速高解像度動画像との関係を指定する。図10(a)および(b)を用いて低解像度画像で求めた動き検出結果と高速高解像度動画像との関係を説明する。
図10(a)および(b)は、それぞれ、高速画像の隣り合うフレーム画像(フレーム番号tとt+1)を表している。簡単のため、低解像度画像において3画素×3画素の領域で説明する。ここで、低解像度画像の1画素を更に3画素×3画素に分けた領域が高解像度画像の画素を表している。なお、図10(a)および(b)では、説明に必要な高解像度画素のみ図示している。
ここで、動き検出部103が動き検出を行った結果として、図10(a)の太線501の低解像度画素位置が、図10(b)の画素位置502に対応している(枠501の画像が枠502に移動した)とする。ここで、上述のような動き検出の手法では一般的に画素サイズより小さい単位で動きの向きや大きさを算出することができる。
従って、低解像度画像の動き検出の結果を用いて、図10(b)のように低解像度画素位置に一致しない高解像度画像の画素単位の動きを算出し、高速高解像度の画素に対する数11の関係を得ることができる。
この動き検出の結果を用いて、太線の枠内(501,502)の高速高解像度動画像の各画素値について
Figure 2008053765
の関係が成り立つと想定する。
ここで、u(x,y,t)とv(x,y,t)は、検出結果を表しており、図10(a)の太線の黒枠(501)内の位置(x,y,t)が図10(b)の太線の黒枠(502)内の位置に移動する動きのうちx方向の移動量をu(x,y,t)、y方向の移動量をv(x,y,t)と表している。上記の例では、動き検出を高速低解像度動画像で行ったが、低速高解像度動画像において動き検出を行った結果を同様に用いてもよい。高解像度画像を用いた場合は、動き検出を求めるフレームの時間間隔は増すが、フレーム内での対応付けの位置精度は向上する。
次に、ステップ604では、拘束制御部104bが拘束条件の強度の時空間的分布を決定し、拘束指定部104eが生成する高速高解像度動画像に対する総合的な拘束条件を指定する。以下詳細を説明する。拘束指定部104eは、上記数1、数2で示す高速高解像度動画像と高速画像・低速画像との画素値の関係と、上記数11で示す動き検出結果と高速高解像度動画像との関係と、上記数4、数5、数6、数7、数9などで示す外部モデル拘束とを用いて、目的とする高速高解像度動画像に対する総合的な拘束条件J(HH)を指定する。数12に総合的な拘束条件Jの例を示す。
Figure 2008053765
数12において、右辺の第1項は高速高解像度動画像から数1の関係式を使って作り出した高速低解像度動画像HL’と高速画像入力部101aに実際に入力される高速低解像度動画像HLとの差(対応する画素値との差の2乗和)を表す拘束で、第2項目は高速高解像度動画像から数2の関係式を使って作り出した低速高解像度動画像LH’と、低速画像入力部101bに実際に入力される低速高解像度動画像LHとの差(対応する画素値との差の2乗和)を表す拘束である。第1項目の拘束と第2項目の拘束は、生成した画像と撮影した画像との輝度値の関係が、上記数1と数2の関係をできるだけ満たすようにするものであり、撮影画像と生成画像との間で輝度値の矛盾を生じにくくする条件である。
数12の右辺の第3項目は外部モデル拘束条件Qsであり数4や数5の条件を用いる場合には生成した画像において時空間的に隣り合う画素の輝度値は近い値を持ちやすいような拘束である。従って、ノイズのように輝度値が時空間的に小刻みに変化するような画像の生成を抑制する。数12の右辺の第4項目は動き検出結果に基づいた拘束条件Qmであり、動き検出を行った結果と生成画像との間に矛盾が生じにくいように動き検出の結果を用いた拘束の例を数13に示す。
Figure 2008053765
数13では高速高解像度動画像における隣り合うフレーム間(tとt+1)の動きu、vを用いて拘束を構成しているが、1フレーム以上離れたフレーム間での動き検出結果u’、v’を用いて数14のように離れたフレームとの間の動き検出を行った結果を用いて拘束条件を設定してもよい。また、数13と数14のような拘束を併用しても良い。
Figure 2008053765
異なるフレーム間隔での動き検出を用いることで、遅い動きなどのように少ないフレーム間隔では検出しにくい動きなどを検出し、画像生成に反映させることが可能となる。
数12の右辺の第5項目はエッジの時間的連続性を示す拘束条件であり、数12の右辺の第6項目はエッジの空間的連続性を示す拘束条件、数12の右辺の第7項目は生成画像から非主成分を抑制する拘束条件である。
ここで、λs、λm、λse、λte、λpcは拘束条件の強度の時空間的分布を決定する係数であり拘束制御部104bが決定する。ステップ602で動き信頼度分布算出部103bが求めた動き検出の信頼度をConf(x,y,t)(>0)とし、値が大きいと動き検出の信頼度が高いとする。
λs、λm、λse、λte、λpcの決め方の例として、αを予め定めた定数としてConf(x,y,t)>αを満たす場合にλm(x,y,t)=1.0のように動き拘束を有効にし、他の拘束条件を座標(x,y,t)において予め定めた小さな値ε(<1.0)に設定し、Conf(x,y,t)<=αではλm(x,y,t)=0.0、他のλを1.0とする。つまり、動き検出部103において、動画像を構成する各画像を分割したブロック単位で動きを検出するに際し、ブロック同士の画素値の差の2乗和を前記2乗和の取り得る値の最大値から引いた値を動き検出の信頼度Conf(x,y,t)として算出し、画像統合部104において、その差が予め定めた値αよりも大きいブロックを信頼度の高い画像領域とし、その差が予め定めた値α以下のブロックを信頼度の低い画像領域として、信頼度の高い画像領域については動き検出の結果を用いて新たな画像を生成し、信頼度の低い画像領域については外部モデル拘束条件を用いて新たな画像を生成する。
他のλの決め方として、ある単調増加関数g(x)を用いてλm(x,y,t)=g(Conf(x,y,t))、他のλの(x,y,t)における値をg(Conf_max)−g(Conf(x,y,t))とするように、連続的に定義してもよい。ここで、Conf_maxは信頼度が取り得る値の最大値である。このように、動き検出の信頼度が高い時には動き拘束に重きを置き、信頼度が低い時には外部モデル拘束の割合を増すことで、動き検出が正確に行えない位置においても、画像が劣化することを抑え、時空間解像度を高めることが可能となる。また、上記では外部モデル拘束として複数の拘束を同時に用いたが、同様に他の拘束を更に加えて用いても良いし、一部の拘束のみを用いても本発明の効果は得られる。
次に、ステップ605では、統合処理部104aが拘束条件Jを最小にする高速高解像度動画像を求める。拘束条件Jを最小にする高速高解像度動画像の求め方としては、例えば、拘束条件Jを高速高解像度動画像の各画素値で微分した式が0とおいた数15の方程式を解いて求めることや、最急勾配法などを用いて繰り返し法を用いて求めても良い。最後に、ステップ606では、統合処理部104aは、生成した高速高解像の画像を出力する。
Figure 2008053765
より具体的な入力画像の組と出力画像の例を図11から図15を用いて説明する。ここでは説明を容易にするために、6画素×6画素×4フレームの動画像を用いて説明する。これはより大きな画像やフレーム数の大きい動画像の一部とみなすことができる。
ここで、図11(a)〜(d)は、撮影の対象を仮に高速高解像度で撮影できた場合の画像を示す。図11(a)〜(d)の映像は本来撮影により取得できないが、説明の為に示す。図11(a)〜(d)は4フレームを時間の順番に並べており、静止している被写体1401と移動している被写体1402が写っている。
このような被写体に対して、高速低解像度動画像と低速高解像度動画像を得る(ステップ601)。このような被写体の高速低解像度動画像(画素数が縦横それぞれ1/3の場合)の例を図12(a)〜(d)に示す。図12(a)〜(d)は、図11(a)〜(d)の撮影時間に対応するフレームである。ここで、黒の画素と白の画素との中間の画素値の画素は左下向きの斜線で示している。フレーム数は図11(a)〜(d)と同じであるが、空間解像度が図11(a)〜(d)よりも低い。
同様に、このような被写体の低速高解像度動画像(フレーム数1の場合)の例を図13に示している。空間解像度は図11(a)〜(d)と同じであるが、図11(a)〜(d)のフレームの間を露出しているため、被写体1402が移動軌跡として撮影されている。
次に、高速低解像度動画像から、動き検出部103は、画像中の被写体の動きと動きの信頼度を求める(ステップ602)。図11(a)〜(d)の画像がより大きな画像の一部を示しているため、動き検出自体はより大きな画像全体で行った結果のうち、図11(a)〜(d)の画像領域に関する結果を得ても良い。
図14(a)〜(d)に信頼度の分布の例を示す。図14(a)〜(d)は、図11(a)〜(d)の撮影時間に対応する。図14(b)および(c)において、右下向きの斜線部分が動き検出の信頼度が低い場所を示し、他の領域(白および黒の画素)は動き検出の信頼度が高い場所を示している。ここで白と黒の画素の表示は被写体との関係を表しており、信頼度では区別はない。また、静止している被写体や背景に対する動き検出の結果は動きの量が0という扱いになる。
図11(a)〜(d)の被写体のような場合、2つの被写体1401と1402が接近するあたりでは正確な動き検出が困難となる。拘束制御部104bは、動き検出結果を用いた拘束の設定(ステップ603)と動きの信頼度の低い位置に対する外部拘束条件とから総合的な拘束条件を設定し(ステップ604)、その拘束条件を用いて統合処理部104aは高速高解像度動画像を生成・出力する(ステップ605、606)。
図15に生成した画像の例を示す。
図15(a)〜(d)は、図11(a)〜(d)の撮影時間に対応する。2つの被写体が接近するフレーム図15(b)、(c)では画素値が中間的な値になっているものの、本来撮影では得られない図11の映像に近い映像が得られる。
対比のため、図16には動き検出の結果のみを用い、動きの信頼度や外部拘束条件を用いない場合の生成画像の例を示す。動き検出が正確に行えない図16(b)、(c)のフレームの画像の右上において正確な画像の生成が行えていない。
図16(b)、(c)の結果とは異なり、図15の結果では、動き検出が図14(b)、(c)の右上の領域で正確に行えていないことから、外部拘束条件により、画像の他の位置や他のフレームとの画素値の連続性(数4、数5など)やエッジの連続性(数6、数7など)や動画像の主成分の傾向(数9など)を用いることで、統合処理部104aは高速高解像度動画像として望ましい画像を生成することができる。
次に、低速高解像度動画像の露出時間を高速低解像度動画像のフレーム間隔よりも長く撮影する効果を図17〜図24の画像を用いて説明する。
図17(a)〜(e)は、撮影の対象を仮に高速高解像度で撮影できた場合の画像を示す。図17(a)〜(e)の映像は本来撮影により取得できないが、説明の為に示す。図17(a)〜(e)は時間的に連続する5フレームを時間の順番に並べており、移動している被写体A1が写っている。
このような被写体に対して、撮影した高速低解像度動画像を図18(a)〜(e)に示し、低速高解像度動画像を図19(a)および(b)と図20(a)および(b)に示す。図18(a)〜(e)は、それぞれ図17(a)〜(e)の時間に対応するフレーム画像を示している。
図18(a)〜(e)は低解像度の画像を高解像度画像と同じ大きさに図示しているため、解像度の低さが画素の荒さとして現れている。ここで、低速高解像度画像は高速低解像度画像の4分の1のフレームレートとし、図19(a)と図20(a)は図17(a)の時間に露出を開始したフレーム画像に対応し、図19(b)と図20(b)は図17(e)の時間に露出を開始したフレーム画像に対応している。
図19(a)および(b)は従来例のように低速高解像度画像の露出時間を短くしている場合のフレーム画像を示している。図20(a)および(b)は本願発明で示すように、低速高解像度画像の露出時間を高速低解像度画像のフレームレートよりも長くして撮影したフレーム画像を示している。
このようにして撮影した画像を用いて前記の手続きで生成した画像の例を図21〜図24に示す。ここで、図21〜図24の(a)〜(e)は、それぞれ図17(a)〜(e)の時間に対応するフレーム画像を示す。また、図22〜図24の(a)〜(e)において斜線部分は被写体A1の輝度と背景の輝度との中間輝度の領域を表している。
図21(a)〜(e)と図22(a)〜(e)は、図18(a)〜(e)と図19(a)、(b)の入力画像を用いて生成した画像の例であり、図23(a)〜(e)と図24(a)〜(e)は、図18(a)〜(e)と図20(a)、(b)の入力画像を用いて生成した画像の例である。図21(a)〜(e)は動き情報を用いずに生成した画像の例を示し、図22(a)〜(e)は動き情報を用いて生成した画像の例を示している。
図21(a)と(e)、図22(a)と(e)は図19の入力画像と同じタイミングのため鮮明な画像が得られる。一方、図21(b)〜(d)では動き情報を用いないため、図18(b)〜(d)と同等の低解像度画像となっている。
また、図22(b)〜(d)では低速高解像度画像を撮影したフレームから離れるに従い、画像の不鮮明さが増し、次の低速高解像度画像の撮影フレームに達したときに再び鮮明な状態に戻る。
これは、低解像度高速画像から得た動き情報を利用して図22(b)〜(d)の生成画像の空間解像度を向上させる必要があるものの、低解像度画像から動き検出を行うため、動き検出の精度が低くなることと、動き検出では不可避な検出誤差が生じることに起因する。これらの動き検出誤差がフレーム毎に蓄積するため鮮明度が次第に低下する。
このように、図19(a)および(b)のような入力を用いた場合、動き検出の情報が得られないか、不正確であると、図22(b)〜(d)において生成画像の鮮明度が次第に低下すると同時に、生成画像の鮮明度が周期的に(前記の例では4フレーム周期)大きく変動し、見辛い画像になり得る。低速高解像度画像のフレーム間隔が長いほどこの傾向は顕著となる。
動き検出の精度が高解像度画像の解像度の精度で正確に得られれば上記のような問題は生じないが、画像中の被写体形状の複雑な変化やオクルージョン、照明変動等により、現実的には低解像度画像からの高精度の動き検出は困難である。
図23(a)〜(e)は動き情報を用いずに生成した画像の例を示し、図24(a)〜(e)は動き情報を用いて生成した画像の例を示している。図23(a)〜(e)では図17(a)〜(e)や図19(a)、(b)の画像に比べて多少鮮明さは低下するものの、図22(d)のような大きな鮮明度の低下が生じない。また、時間的な鮮明度の変化が抑えられており、鮮明度の時間変化による見辛さは軽減できる。更に、図24(a)〜(e)では動きの情報を用いるため、図23(a)〜(e)に比べて更に鮮明度が向上する。
このように従来の画像生成方法では、高速低解像度画像も低速高解像度画像とも露出時間を短くし、動きブレを抑えることで、個々の画像を鮮明に撮影していたが、生成した画像の画質を安定させ、突発的な画像の変化を適切に生成画像に反映させる上では必ずしも望ましいとはいえなかった。
本願発明の画像生成手法ではこのような従来手法とは異なり、生成する高速高解像度画像の鮮明さの向上とフレーム間の鮮明度の変化を抑えるために動きブレが生じうる長時間撮影により得た低速高解像度画像を用いてが画像を生成することを特長とする。
これにより、動き検出が行われない場合にでもフレーム毎の画質の変動を抑えるとともに、画像の動き情報を加味することで画像の鮮明さを向上させることが可能となる。
更に、動き検出の信頼度を用いて信頼度の高い動き情報のみ用いることで、誤った動き情報による画像の劣化を抑えることが可能になる。
なお、長時間露出の露出時間は低速画像のフレーム間で開放すると効果を得やすい。実際には、画素値の読み取り等により、露出終了と次フレームの露出開始までには未露出時間が生じうる。このような場合にでも可能な範囲で露出を長くしておくことで本願発明の効果を得ることが可能である。
なお、長時間撮影を用いて画像を生成したか否かは、高解像度でかつ突発的な画像の変化が図19(a)と(b)の間で生じた場合に生成画像にその変化が含まれるか否かで判断することができる。
ここまで、露光制御部105が低速高解像度画像の1フレームの露光期間中の露光量を時間的に一定にする制御を行った場合について説明した。次に、露光制御部105が低速高解像度画像の1フレームの露光期間中の露光量を時間的に変化させる制御を行った場合について説明する。
図25(a)は、低速画像入力部101bで取得する低速高解像度動画像の露光量の時間変化の例で、図25(b)は、高速画像入力部101aで取得する高速低解像度動画像の露光量の時間変化の例を示す。図25(a)および(b)で横軸は時間、縦軸は撮像時の露光量を示す。図25(a)および(b)はそれぞれの画像について同じ期間における露光量の時間変化を表しており、1つのつながった太線が各画像の1フレームを得るための露出量の時間変化を表している。
図25(a)では、低速高解像度画像の1フレームを得るための1回の露出期間中に露光が行なわれている状態と無露光状態が4回繰り返されることが、太線21a1によって示されている。図25(b)では、図25(a)での1回の露出と同じ期間に、高速低解像度画像の4つのフレームを得るために4回の露出(太線21b1、21b2、21b3、21b4)が行なわれることが示されている。
図8(b)では、フレーム間隔と露出時間とが等しい(つまりフレーム間で開放露光を行う)として高速低解像度画像の劣化過程を説明したが、ここでは、図25(b)に示されるように、高速低解像度画像は、フレーム間隔よりも露出時間が短くなる(言い換えれば、各フレームの露光期間の一部が無露光期間となる)ように制御される。また、図25(b)の高速低解像度画像の4回の未露出期間に同期して、図25(a)の低速高解像度画像の1回の露出中の減光期間が設定される。
次に、図26を用いて入力画像の露光タイミングと生成画像における仮想的な露光タイミングとの関係を説明する。ここで仮想的な露光タイミングとは、生成画像に相当する画像を実際に撮影できたと仮定した場合の露光タイミングに相当する。
図26(a)は低速高解像度画像(破線から破線が1フレームの露光期間を示す)における露光タイミングを表し、縦軸の上側が露光している状態、下側が無露光の状態を示している。図26(a)では1フレーム中に露光と無露光の状態を9回繰り返している。図26(b)は図26(a)と同時に撮影している高速低解像度画像の露光タイミング(白色)と無露光タイミング(斜線)とを表している。
高速低解像度画像では1フレームごとに露光と無露光とを1回ずつ含んでいる。図26(b)では低速高解像度画像1フレームの間に、高速低解像度画像が9フレーム含まれている。
図26(c)は生成画像(高速高解像度画像)の仮想的な露光タイミングを表している。
ここで、図26(a)、図26(b)の露光期間は一致している。このような関係は、一例として、低速高解像度画像の1フレームの露光期間に含まれる無露光期間に高速低解像度画像の露光量もまた低減させるよう、露光制御部105が撮像装置10を制御することによって実現できる。
また、高速低解像度画像の各フレーム期間の予め定められた一部が露光期間、残部が無露光期間として制御される場合に、高速低解像度画像の露光期間において低速高解像度画像の1フレームの露光が行われるように露光制御部105が撮像装置10を制御しても、このような関係は実現される。
このような関係を満たすように撮影した画像を用いて図26(c)のような仮想的な露光タイミングを持つ動画像を生成することにより、次のような効果が得られる。
すなわち、露光および無露光のタイミングが混在していても、数1や数2のような線型式は満たされるため、画像生成の手続きを露光および無露光のタイミングに依存して複雑に構成する必要が無い。しかも、露光および無露光のタイミングが混在している場合には、入力画像の時間方向の周波数特性では高周波成分の割合が向上し、生成画像における時間方向の高周波数成分の再現性も向上する。
ステップ601以降では、前述した露光量を時間変化させない場合と同じ処理を行う。ここで、図17(a)〜(e)と同じ被写体について被写体の動きが速い場合について考える。
露光制御部105が低速高解像度画像の露光量を時間的に変化させず、高速低解像度画像のフレーム間隔と露出時間とが等しい場合の高速低解像度画像の例を図27(a)〜(c)に示す。図27(a)、(b)、(c)は連続するフレームの画像であり、各フレーム画像では動きブレが目立っている。これは高速画像であってもフレーム間で被写体が大きく動くことによる。図28は同時に撮影した低速高解像度画像の例である。図28は、図27(a)、(b)、(c)の3フレームの時間にわたって露光量を時間的に変化させずに撮影しており、さらに大きな動きブレを含む画像となっている。
図27(a)〜(c)の高速低解像度画像と、図28の低速高解像度画像とに対して、図24(a)〜(e)に示される動画像を生成した場合と同じ処理を適用した結果の一例を図29(a)〜(c)に示す。図29(a)、(b)、(c)は、図27(a)、(b)、(c)の各フレームの時間に対応する。
図29(a)〜(c)において、高速低解像度画像と同じフレームレートで図27(a)〜(c)よりも高解像度化された画像が得られている。しかしながら、図27(a)〜(c)に含まれる動きブレは図29(a)〜(c)にも含まれている。これは、高速低解像度画像のフレームレートよりも速い動きの情報が撮影時に得にくいことによる。
次に、同じ被写体に対して図25(a)および(b)のような露光量の時間変化を行った場合を考える。露光制御部105が低速高解像度画像の露光量を時間的に変化させて撮影した画像の例を図30(a)〜(c)、図31に示す。
図31は低速高解像度画像で、図28と同じ被写体を、図25(a)のように露光量を時間的に変化させて撮影した画像となっている。ここで、図31の斜線部分は黒色の領域と白色の領域の中間的な画素値(輝度値)を表している。露光量を時間的に変化させているため、被写体の画素値(輝度値)が動きの方向に沿って変化している。
図30(a)〜(c)は高速低解像度画像で、図25(b)のように低速高解像度画像の露光区間に合わせて露出時間を設定している。フレーム間の被写体の移動量は図27(a)〜(c)と図30(a)〜(c)とで等しいものの、露出が短いため図30(a)〜(c)では各フレーム画像の被写体の動きブレが図27(a)〜(c)の場合に比べて少なくなっている。
このような入力画像を用いて生成した画像を図32(a)〜(c)に示す。図32(a)〜(c)は図29(a)〜(c)に比べ、動きブレが抑えられた高解像度画像となっている。これは、図29(a)〜(c)の場合と同じ被写体を同じフレームレートで撮影しているものの、露光量を時間的に変化させていることで、時間的に高い周波数の情報を取得し、画像生成に利用していることに因る。
上記の例では、図25(a)および(b)のように低速高解像度画像撮影時の未減光区間と高速低解像度画像の露出時間とを一致させて撮影した場合を説明したが、図33(a)および(b)を用いて両者が一致しない場合の例について説明する。
図33(a)は図25(a)と同じ露光量の時間変化を表しているが、図33(b)の高速低解像度画像のフレームレートは図25(b)の場合の半分であり、破線の22b2、22b4で示される露出期間のフレームは実際には撮影されていない。
このような場合、太線22b1及び22b3で示される露光によって撮影された2つのフレーム画像を用いて画像間の動きベクトルを検出する。そして、画像間の対応点の動きを用いて破線22b2で示される露出期間に得られたであろう画像を生成する。同様に前後のフレーム画像を用いて破線22b4で示される露出期間における画像も生成する。このような生成は、従来技術である時間方向の補間処理によって行うことができる。
このようにして、破線22b2及び22b4で示される露出期間における画像を生成した後に、図25(b)の場合と同等の処理を行なうと、図32(a)〜(c)のような高速高解像度かつ動きブレの抑えられた画像を得ることが可能となる。
但し、低速高解像度画像の露光量の時間変化と、高速低解像度画像の露出時間とを合わせることが望ましい。一致させることで、両画像から得られる情報の時間方向での過不足が抑えられ、撮影していない時間の画像の推定といった付加処理による誤差の発生や演算量の増加を抑える効果がある。
なお、露光量を時間的に変化させる方法としては、機械式の開閉シャッタや液晶シャッタ等の同様の機能を有する装置を撮像部よりも被写体側に設置することで実現することができる。同様に、照明変化をさせることで、露光量を時間変化させてもよい。
照明変化を用いる場合、付加すべき装置が簡易に構成できる点や、高速な露光量の変更が行ないやすい利点があるが、被写体までの距離が遠い場合は、照明強度を強くする必要がある。一方、シャッタ等を用いる場合は、被写体の距離に関係なく適用できる利点がある。両方を併用してもよいし、どちらか一方を使っても、本発明の効果は得られる。
このように、低速高解像度画像の露光量を時間的に変化させることで、変化させない場合に比べて時間的により高周波数の情報を取得して画像を生成することが可能となる。その結果、各フレーム画像での動きブレを抑えるなど生成画像の高周波成分の再現性を高めた画像を得ることが可能となる。
上記の例では、画像統合部104は、生成画像を出力するのみであるが、生成画像の出力と併せて画像生成の信頼度を出力しても良い。画像生成の信頼度γは生成した画像が正確に高速高解像化されている度合いを予測する値である。γの決め方としては、以下の数16に示される動きの信頼度の総和や、
Figure 2008053765
有効な拘束条件の数Nと求めるべき動画像の総画素数M(=フレーム数×1フレーム画像の画素数)との比率N/Mなどを用いることができる。ここでN=Nh+Nl+Nλ×Cであり、Nhは高速画像の総画素数(フレーム数×1フレーム画像の画素数)、Nlは低速画像の総画素数、Nλは外部拘束条件を有効にする時空間位置(x,y,t)の総数、Cは外部拘束の種類の数とする。
なお、数15などの方程式を連立1次元方程式として解く場合には、Cline,A.K.,Moler,C.B.,Stewart,G.W.and Wilkinson,J.H.,“An Estimate for the Condition Number of a Matrix”,SIAM J.Num.Anal.16(1979),368−375.(非特許文献5)などに記載されている解の算出計算の安定性を示す条件数を信頼度として用いることができる。
動きの信頼度の高い場合、動き拘束を用いた生成画像の信頼度も高いことが期待できる。また、生成する動画像の総画素数に対して有効な拘束条件が多い場合には、解としての生成画像を安定して得ることができ、生成画像の信頼度も高いことが期待できる。同様に、上記条件数が小さい場合にも解の誤差が小さいことが期待できる為、生成画像の信頼度が高いと期待できる。
このように、生成画像の信頼度を出力することで、出力した動画像に対してMPEGなどの圧縮符号化を行う際に、信頼度の低い場合には圧縮率を高め、逆に、信頼度の高い場合には圧縮率を低く設定することが可能となり、適切な圧縮率の設定が可能となる。
例えば生成画像の信頼度γと符号化の圧縮率δとの関係を図34のように単調増加の関係に設定し、生成した動画像の信頼度γの値に対応する圧縮率δで符号化を行う。生成画像の信頼度γが低い場合には生成画像が誤差を含みうるため、圧縮率を高くしても実質的に情報の欠損があまり生じないことが期待されるため、効果的にデータ量を削減できる。
ここで圧縮率とは、もとの画像のデータ量に対する符号化後のデータ量の割合で、圧縮率が高い(大きい値)ほど、符号化後のデータ量は小さくなり、復号化した際の画質は低下する。
同様に、MPEGの場合などでは、前記信頼度の高いフレームを優先的にIピクチャなどのフレーム内符号化の対象とし、他のフレームをフレーム間符号化の対象とすることで、動画像の再生時の早送り再生や一次停止時などの画質を向上させることが可能となる。
例えば、前記生成画像の信頼度をフレーム毎に求めておきγ(t)と置く。tはフレーム時刻である。連続する複数のフレームの中から、フレーム内符号化を行うフレームを選択する際にγ(t)が予め定めた閾値γthより大きいフレームの中から選択したり、予め定めた連続フレーム区間の中で最もγ(t)の大きいフレームを選択する。
なお、出力動画像を符号化する処理の有無に関わらず本発明の効果は得られる。
また、上記の例では、画素値として単一の輝度のみを前提に説明したが、輝度に対する上記の処理をRGBカラー表現のRとGとBの各成分について個々に同じ処理を行って高速高解像度動画像を得ることで、カラー画像に対しても高速高解像度動画像を生成することが可能である。
また、より簡易に色情報を扱う方法としては、低速画像を輝度と色差に分解し、輝度画像のみを上記の処理で高速高解像度化し、色差情報は補完拡大して前記高速高解像度輝度画像に付加することでも、効果は得られる。この場合、画像の情報の主成分は輝度に含まれる為、他の色差の情報が補完拡大された場合であっても、両者を合せることで、入力した画像に比べて、高速高解像度化した動画像を得ることが可能となり、RGB独立に処理する場合に比べて処理量を削減することが可能となる。
このようなカラー画像に対する処理の手順を図35に示す。ステップ2101では高速低解像度動画像を輝度画像と色差画像に分離し、続いて、ステップ2102で、前記輝度画像と低速高解像度動画像の輝度画像とを用いて図5の手順に基づいて高速高解像度動画像を生成する。ステップ2103では、前記色差画像を高解像度画像と同じ画素数に補間拡大する。ステップ2104では、前記生成輝度画像と前記補間拡大した色差画像とを合成して高速高解像度のカラー画像を生成する。
このように、画像統合部104が、高速低解像度動画像から色差情報を抽出し、高速低解像度動画像の輝度情報と低速高解像度動画像とから中間的な新たな動画像を生成し、生成した中間的な動画像に色差情報を付加することによって、最終的な新たな動画像を生成することで、カラーの動画像を少ない処理量で統合することができる。
以上のように、本実施の形態における画像生成システム100によれば、動き検出部103が求めた動きの信頼度に応じて、拘束制御部104bが外部モデル拘束条件と動き拘束条件とを有効にする度合いを決定し、前記拘束条件を用いて高速画像と低速画像を統合することにより、動き検出が行えない場合や、動き検出の精度が低い画像領域においても高速高解像の動画を得ることができる。
なお、本実施の形態では、動画像全体を一括で処理する例を説明したが、動画像を時空間的に複数の領域に分割し、前記各領域において上記と同様の処理を行って高速高解像の部分動画像を生成した後、生成した前記各部分動画像を時空間的に接合し、動画像全体の高速高解像の動画像を得ても良い。このように時空間的に分割処理を行う事で、画素数の多い画像やフレーム数の多い動画像を行う際に必要となる計算処理量やメモリ量を抑制する事が可能となる。特に、時間方向に動画像を分割することで、過去に入力された複数フレームを一括処理することによる画像生成の時間遅れを短縮することも可能になる。
また、上記のように分割処理する際に、隣接する時空間領域が分割境界近傍において、重複するように、各領域を設定してもよい。図36に空間的に重複を持たせて領域分割をした例を示す。図36では画像を空間的に重複領域を持たせて領域701〜704の4領域に分割している。個々の領域に相当する動画像を生成した後に、重複部分の画素値は重複する各領域の画素値を重み付け加算平均を行うことで、滑らかな接合を行うことができる。また、時間方向に重複を持たせて図36と同様に領域分割しても良い。このように、重複領域を持たせることで、領域分割処理において隣接する領域間での処理結果の不連続性を抑制する事ができる。
なお、このような重複を許す分割処理において、重複領域の大きさは、予め定めておく。重複領域の大きさを大きくすることで、処理領域間での処理結果の不連続性を低減する効果が増す。重複領域の大きさを小さくすると重複によって増加する計算量を抑えることが可能となる。
また、上記のように領域分割する際の時間方向の領域境界としては、予め動画像のフレーム間の画像の変化を算出し、フレーム間の画像の変化が予め定めた基準より大きいフレーム間に時間的な領域境界を設定しても良い。例えば、隣り合うフレーム画像の差として数17のような値SSD(t)を定義し、SSD(t)>thを満たす場合に、時刻tのフレームと時刻t+1のフレームとの間を処理の境界とし、時刻t以前のシーケンスと時刻t+1以降のシーケンスの処理を分けて行う。
Figure 2008053765
ここで、I(x,y,t)は時刻tのフレーム画像中の位置(x,y)における輝度を示し、thは予め定めた閾値である。また、閾値thを基準として処理の区切りを決定する替わりに、処理の区切りを設けたい時間領域のシーケンスにおいて前記SSD(t)が最大になる時刻tを処理の区切りとしても良い。このようにすることで、時間的に隣接する領域間の処理結果の不連続性がフレーム間の画像の変化に対して相対的に小さくなる事で不連続性が知覚されにくくなるという効果が期待できる。
以上、本発明に係る画像生成装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。実施の形態に対して当業者が思いつく変形を施して得られる形態も本発明に含まれる。
実施の形態では、統合処理部104aが、拘束指定部104eによって指定される数12の総合的な拘束条件Jに従って、入力された静止画像(低速高解像度画像のフレームの1つ)と、その静止画像の露光期間における目的とする高速高解像度動画像の複数のフレームの合計との誤差(数12の右辺の第2項)を減少させることによって、高速高解像度動画像を生成すると説明した。
ここで、合計の代わりに、合計と定数倍の関係にあって合計とは実質的に等価な情報である平均を用いても構わない。すなわち、静止画像と、その静止画像の露光期間における目的とする高速高解像度動画像の複数のフレームの平均との誤差を減少させることによって、目的とする高速高解像度動画像を生成する構成も、本発明に含まれる。
また、本発明の画像生成装置が行なう画像生成処理の一部または全部は、専用の機器で行わせるようにしてもよいし、コンピュータ端末装置や、基地局等に配置される通信機器や、スタンドアロンのコンピュータに内蔵されるCPUが画像生成処理プログラムを実行することによって、画像生成処理を行うようにしてもよい。
また、図3に示された画像生成システム100の構成のうち、表示装置40を除いた構成を用いて、図37に示すようなカメラ300として、つまり、単体の装置として本発明を実現してもよい。
さらに、図37に示されたカメラ300に表示装置40を付加することにより、動画像録画・再生機能付きのカメラとして実現しても良い。
また、図3に示された画像生成システム100の構成のうち、撮像装置10を除いた構成を用いて、図38に示すようにテレビなどのディスプレイ機器400として本発明を実現しても良い。この場合、あらかじめ録画してある動画像の時空間解像度を向上させて表示することが可能になる。
なお、請求の範囲と実施の形態における構成要素の対応は次の通りである。つまり、請求の範囲における「露出制御手段」、「画像入力手段」、「動き検出手段」、「画像統合手段」の一例が、それぞれ、実施の形態における露光制御部105、画像入力部101、動き検出部103、画像統合部104である。ただし、請求の範囲における各構成要素は、これら実施の形態における対応する構成要素だけに限定されるのでなく、その等価物も含まれる。
本発明は、複数の動画像から新たな動画像を生成する画像生成装置として、特に、高速低解像度動画像と低速高解像度動画像とから高速高解像度動画像を生成する画像生成装置、そのような装置が組み込まれた映像機器やシステム、映像合成装置、映像編集装置、画像復元装置、画像復元プログラム等として利用できる。
本発明は、動画像を生成する画像生成装置に関し、特に、複数の動画像から夫々の優れた特性を併せ持つ新たな動画像を生成する画像生成装置に関する。
デジタル撮像デバイスの進展に伴い、高空間解像度の静止画像を比較的低コストで撮影することが可能となってきている。しかしながら、このような高空間解像度の静止画と同等の空間解像度を保ちながら滑らかに動く動画像(例えば、30フレーム/秒程度)や更に高速度の撮影を実現するには課題がある。
これは、単位時間あたりに得られる画像の情報量が莫大になるために、撮像デバイス内での画像情報の転送速度が不足することや、並列に画像情報を転送するなどの特殊な撮像デバイスを必要とする為、撮像装置のコストが増加したり、撮像デバイスの特性の調整が別途必要になることに因る。
従来の時空間解像度(時間および空間の解像度)の高い画像を得る画像生成方法としては、高速低解像度カメラと低速高解像度カメラとの映像を用い、動画像のフレーム間の対応点検出を用いてモーフィングを行うものがある(例えば、特許文献1参照)。図1は、特許文献1に記載された従来の画像生成方法を説明する図である。なお、本明細書において、撮像能力または動画像の性質に関して、「高速」(または、「低速」)とは、フレームレートが相対的に大きい(または、小さい)ことを意味し、「高解像度」(または、「低解像度」)とは、空間解像度が相対的に高い(または、低い)ことを意味する。
図1において、高速低解像度カメラA01と低速高解像度カメラA02は同じ対象を同じ画角で同期して撮影している。カメラA01とカメラA02の撮影画像の関係を図2に示す。図2は、2つのカメラA01およびA02が撮影したフレームを時間の順に並べており、フレームB01とB02はカメラA02で得られた画像を表し、フレームB11〜B15は、カメラA01で得られた画像を表している。ここで空間解像度の違いは画像の大きさで表現しており、フレームB11〜B15は、フレームB01とB02に比べて画素数が少なく、空間解像度が低い。一方、カメラA01はカメラA02よりも撮影のフレームレートが高く、カメラA02が1フレーム撮影する間にカメラA01は4フレーム撮影している。また、カメラA02のフレーム撮影の時間に同期してカメラA01のフレーム撮影を行っている(フレームB01とフレームB11およびフレームB02とフレームB15は同じタイミングで撮影)。以下の例では、フレームB23の位置(フレームB13の撮影時間に相当)に相当する高解像度画像の中間フレーム画像の生成方法について説明する。
このようにして撮影したフレーム画像について、一次マッチング部A03はカメラA01の高速撮影画像において隣りあう各フレーム間の画素の対応関係を求める。ここで、対応関係とは、あるフレーム画像内の各画素が映す対象の部位が他方のフレーム画像内のどの画素位置に写っているかの関係である。次に、隣り合う高速画像間の対応関係をつなぎ合わせることで、生成したいフレームB23の時刻に位置する高速カメラ画像B13と、高速画像と低速画像を同期して撮影しているフレームB11との画素間の対応関係を求める。
次に、二次マッチング部A04は、高速画像と低速画像を同期して撮影しているフレームB01とフレームB11との画素の位置関係、フレームB13とフレームB23との画素の位置関係、および、一次マッチング部A03で求めたフレームB11とフレームB13との対応関係をつなぎ合わせることで、フレームB01とフレームB23との画素の対応関係を決定する。
次に、画像生成部A05は、フレームB01とフレームB23との画素の対応関係を用いて、フレームB01の画素値を用いてフレームB23の画素値を決定し、高解像度中間フレーム画像B23を生成する。同様の手順で他の中間フレームを生成することで、高解像度かつ高速の映像を生成する。
また、非特許文献1や非特許文献2などでも同様に、高速低解像度カメラと低速高解像度カメラとの映像を用い、高速カメラの映像から動き検出を行い、その動きに合わせて低速高解像度動画像に対してモーフィングを行うことで高解像度の中間フレーム画像を生成している。
特開2003−203237号公報(図13) Toru MATSUNOBU,et al.,"Generation of High Resolution Video Using Morphing",Technical report of IEICE,PRMU2004−178 Kiyotaka Watanabe,et al.,"Generation of High Resolution Video Sequence from Two Video Sequences with Different Spatio−temporal Frequencies",情報科学技術レターズ(FIT2004),Vol.3,No.LI−004,2004
しかしながら、上記従来の技術では、高速画像において隣り合うフレーム間で対応関係を正確に求めることや、動き検出を正確に行えることが前提となっており、対応関係が正確に求まらない場合や、動き検出が行えない場合には、生成する画像が大きく劣化したり、低解像度画像を単に拡大した画像になってしまうという課題を有している。一般的に、画像中の移動物体の動きが複雑な場合や照明状態が変化する場合やオクルージョンが発生する場合やアパーチャ問題が発生する場合などには、フレーム間の対応点を求めることや動き検出を全ての画素について正確に求めることは困難である。
そこで、本発明は、上記従来の課題を解決するものであり、対応点検出や動き検出が正確に行えない画像領域も含めて複数の動画像を統合した新たな動画像を生成することができる画像生成装置およびその方法を提供することを目的とする。
上記目的を達成するために、本発明に係る画像生成装置は、外部の撮像装置によって同一事象を撮影して得られた第1動画像及び第2動画像から、前記事象を表す新たな動画像を生成する画像生成装置であって、前記第2動画像の解像度は前記第1動画像の解像度よりも高く、かつ前記第2動画像のフレームの露光時間は前記第1動画像のフレームの露光時間よりも長く、前記撮像装置を制御することにより、前記第2動画像の1つのフレームの露出期間中の露光量を時間的に変化させる露光制御手段と、前記撮像装置から、前記第1動画像と、前記露光制御手段の制御下で撮影された前記第2動画像とを取得する画像入力手段と、前記取得された第1動画像と第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、前記第2動画像のフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合手段とを備える。
このような構成によって、前記画像入力手段が、例えば、高速フレームレートで低解像度の第1動画像と低速フレームレートで高解像度の第2動画像を受け付けた場合には、前記画像統合手段は、前記第1動画像と同じフレームレートで前記第2動画像と同じ解像度の動画像を前記新たな動画像として生成することができる。つまり、入力された複数の動画像の夫々の優れた特性を併せ持つ新たな動画像が生成される。
更に、前記露光制御手段が、前記第2動画像の露出期間中の露光量を時間的に変化させることで、時間周波数の高い情報を取得することが可能となり、生成される動画像の高周波数の特性を向上させることが可能となる。
なお、本発明は、このような画像生成装置として実現できるだけでなく、画像生成方法、その方法をコンピュータに実行させるプログラム、そのプログラムを記録したCD−ROM等のコンピュータ読み取り可能な記録媒体等としても実現することができる。
本発明の画像生成装置によれば、動画像中において必ずしも動きや対応点が正確に求まらない画像領域を含んでいる場合にでも、その画像の時空間解像度を動画像全体で向上させた新たな動画像が生成される。たとえば、高速低解像度動画像と低速高解像度動画像とから、夫々の優れた特性を併せ持つ高速高解像度動画像が確実に生成される。
本発明の画像生成装置は、外部の撮像装置によって同一事象を撮影して得られた第1動画像及び第2動画像から、前記事象を表す新たな動画像を生成する画像生成装置であって、前記第2動画像の解像度は前記第1動画像の解像度よりも高く、かつ前記第2動画像のフレームの露光時間は前記第1動画像のフレームの露光時間よりも長く、前記撮像装置を制御することにより、前記第2動画像の1つのフレームの露出期間中の露光量を時間的に変化させる露光制御手段と、前記撮像装置から、前記第1動画像と、前記露光制御手段の制御下で撮影された前記第2動画像とを取得する画像入力手段と、前記取得された第1動画像と第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、前記第2動画像のフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合手段とを備える。
ここで、前記露光制御手段は、前記第2動画像の1つのフレームの露光期間中に少なくとも1回、前記露光量を低減させる無露光期間を設けてもよく、前記露光制御手段は、さらに、前記撮像装置を制御することにより、前記第1動画像の露光量を、前記第2動画像の無露光期間において低減させてもよい。また、前記第2動画像の1つのフレームの露光期間中に含まれる前記第1動画像の1以上のフレームのそれぞれの露光期間において、前記第2動画像の前記フレームの露光が行われるように、前記第2動画像の露光量を変化させてもよい。
この構成によれば、短い露光時間のために前記第1動画像に含まれる時間周波数の高い情報と、高い解像度のために前記第2動画像に含まれる空間周波数の高い情報とが、前記新たな動画像のフレームに反映されるため、時空間解像度に優れた前記新たな動画像が得られる。前記第2動画像の露出時間中の露光量を時間的に変化させることは、前記第2動画像が時間周波数のより高い情報を持つことができ、その結果、前記新たな動画像の時間解像度の向上に役立つ。
また、前記撮像装置が、前記第2動画像を撮影する際、被写体からの入射光量を外部からの制御に応じた量低減させる減光手段を備える場合には、前記露光制御手段は、前記減光手段を制御することによって、前記露光量を時間的に変化させることができる。
また、前記撮像装置が、前記第2動画像を撮影する際、外部からの制御に応じた強さで被写体を照明する照明手段を備える場合には、前記露光制御手段は、前記照明手段を制御することによって、前記露光量を時間的に変化させることができる。
(実施の形態)
以下、図面を参照しながら本発明の実施の形態に係る画像生成システムについて詳細に説明する。
図3は、本発明の実施の形態に係る画像生成システムのハードウェア構成を示すブロック図である。
画像生成システム100は、同一の対象についての複数の動画像(ここでは、高速低解像度動画像および低速高解像度動画像)から時空間解像度の高い新たな動画像(ここでは、高速高解像度動画像)を生成するシステムであり、撮像装置10と、画像記憶装置20と、画像生成装置30と、表示装置40とを備えている。撮像装置10は、被写体を撮影し、異なる2種類の時空間解像度で動画像(ここでは、同一の対象についての高速低解像度動画像および低速高解像度動画像)を得るカメラ等である。画像記憶装置20は、撮像装置10で撮像された動画像を一時的に記憶するメモリ等である。画像生成装置30は、画像記憶装置20に記憶された動画像を読み出し、読み出した複数の動画像から、時空間解像度を高めた新たな動画像を生成する装置である。表示装置40は、画像生成装置30で生成された新たな動画像を表示する表示装置である。なお、画像生成装置30は、専用回路等のハードウェアによって実現してもよいし、汎用の計算機における画像処理プログラム等のソフトウェアによって実現してもよい。
図4は、図3に示された画像生成システム100における撮像装置10と画像生成装置30の内部構成を示す機能ブロック図である。
撮像装置10は、減光部106aと照明部106bとを含んで構成される。
減光部106aは、画像生成装置30からの制御に応じて、時間的に変化可能な量で撮像される被写体からの入射光を低減させる。減光部106aは、例えば入射光を撮像素子に導く光学系(不図示)に配置された、電気的に制御可能なフィルタ又はシャッタであるとしてもよい。照明部106bは、画像生成装置30からの制御に応じて、時間的に変化可能な光量で被写体を照明する。
画像生成装置30は、画像入力部101と、動き検出部103と、画像統合部104と、露光制御部105とを備える。
露光制御部105は、減光部106a及び照明部106bのうち少なくとも一方を制御することによって、撮像装置10によって撮像される低速高解像度画像の1フレームの露出期間中の露光量を時間的に変化させる。
画像入力部101は、撮像装置10によって同一の対象物を撮像して得られる時空間解像度または時空間位相の異なる複数の動画像を取得するインターフェース等であり、高速(高速フレームレート)かつ低空間解像度で対象を撮影した動画像(高速低解像度動画像)を取得する高速画像入力部101aと、低速(低速フレームレート)かつ高空間解像度で同じ対象を撮影した動画像(低速高解像度動画像)とを取得する低速画像入力部101bとを有する。このように、高速画像入力部101aに入力された画像と低速画像入力部101bに入力された画像は、時空間解像度は異なるが、同じ対象を撮影した画像である。ここで、低速高解像度画像の1フレームの露出期間中の露光量は、減光部106a又は照明部106bによって時間的に変化可能であることに注意する。
動き検出部103は、画像入力部101に入力される画像を生成する撮像装置10の動きを検出するセンサ(撮像装置10に備えられた加速度センサ等)からの信号を取得するセンサ入力部103cと、画像入力部101に入力された画像及びセンサ入力部103cに入力された動き信号のうちの少なくとも一方に基づいて、入力画像中の画像(つまり、撮像の対象物)の動き検出を各フレームの画像全体において行う動き分布算出部103aと、動き分布算出部103aにおける動き検出の信頼度を各フレームの画像全体において算出する動き信頼度分布算出部103bとを有する。
画像統合部104は、画像入力部101に入力された複数の動画像のうち、信頼度の高い画像領域については動き検出部103による動き検出の結果を用いて新たな動画像を生成し、信頼度の低い領域については予め定められた一定の拘束条件を用いて複数の動画像を統合する処理部であり、統合処理部104aと、拘束制御部104bと、動き拘束指定部104cと、外部モデル拘束部104dと、拘束指定部104eとを有する。
動き拘束指定部104cは、動き分布算出部103aによる動き検出の結果を用いて、生成する高速高解像度動画像の各画素値が満たすべき拘束条件(以下、動き検出の結果に依存して指定される拘束条件を「動き拘束条件」という。)を指定する処理部である。
外部モデル拘束部104dは、生成する高速高解像度動画像の各画素値が動き分布算出部103aによる動き検出の結果とは別に満たすべき拘束条件(以下、動き検出の結果に依存することなく指定される拘束条件を「外部モデル拘束条件」という。)を指定する。
拘束制御部104bは、動き分布算出部103aで算出された動き検出の結果と動き信頼度分布算出部103bで算出された信頼度とを用いて、生成する高速高解像度動画像中の各フレーム画像中の各位置において、動き拘束条件と外部モデル拘束条件とをそれぞれ有効にする度合いを決定し、その度合を拘束指定部104eに通知する。
拘束指定部104eは、拘束制御部104bが決定した動き拘束条件と外部モデル拘束条件との有効度合いに基づいて、動き拘束指定部104cが指定する動き拘束条件と外部モデル拘束部104dが指定する外部モデル拘束条件とを統合した拘束条件、つまり、生成する高速高解像度動画像の各画素値が満たすべき拘束条件を指定する。
統合処理部104aは、拘束指定部104eによって指定される拘束条件に従って、高速画像入力部101aに入力された高速画像と低速画像入力部101bに入力された低速画像とを統合し、高速高解像度動画像を生成する。
符号化部102は、統合処理部104aによって生成された画像を圧縮符号化して出力する。
なお、本実施の形態における「フレーム」には、プログレッシブ方式におけるフレームだけでなく、インターレース方式における偶数フィールドおよび奇数フィールドが含まれる。
次に、以上のように構成された画像生成装置30が実行する処理について説明する。図5は、画像生成装置30が実行する処理のフローチャートである。
ステップ600では、露光制御部105が低速高解像度画像の1フレームの露光期間中の露光量の時間変化を設定する。ここでは、まず露光期間を通して露光量を一定にする場合の説明を行う。露光期間中の露光量を時間的に変化させる場合については後述する。
露光制御部105は、露光量を一定にする制御を撮像装置10に対して行う。撮像装置10は、露光制御部105からの制御下で、高速低解像度画像と低速高解像度画像とを撮影する。
ステップ601では、高速画像入力部101aが高速低解像度動画像の入力を受け付け、低速画像入力部101bが同一対象についての低速高解像度動画像の入力を受け付ける。以降、説明に用いる画像は輝度画像を用いて説明する。
高速画像入力部101aに入力される高速低解像度動画像と低速画像入力部101bに入力される低速高解像度動画像の関係を図6(a)および(b)に示す。図6(a)および(b)は、それら2つの画像の連続したフレーム画像を時間の順に並べており、フレーム201と202は低速高解像度の画像を表し、フレーム211〜215は高速低解像度の画像を表している。
本図において、空間解像度の違いは画像の大きさで表現されている。フレーム211〜215は、フレーム201と202に比べて画素数が少なく空間解像度が低い。一方、フレームレートについては、高速画像入力部101aは、低速画像入力部101bに比べ、撮影のフレームレートが高く、ここでは、低速画像入力部101bの1フレーム間隔で高速画像入力部101aは4フレーム撮影している。また、フレーム201と202の画像の時間方向の幅は露出時間を表している。低速画像入力部101bに入力される画像はフレームレートが低い分、高速画像入力部101aに入力される画像に比べて長い露出が可能となる。図6(a)では、低速高解像度動画像のフレーム201は、高速低解像度動画像の4フレーム間隔分の露出が行われている。
なお、高速画像入力部101aに入力されるフレームと低速画像入力部101bに入力されるフレームとの撮影タイミングは、時間の相対関係が既知であればよく、必ずしも同時に撮影される必要は無い(つまり、撮像タイミングにおける位相が異なっていてもよい)。また、長時間露出を行うことで、高解像度の画像中においても移動物体の移動軌跡のような動き情報を取得することが可能となる。高解像度画像から得た動き情報と矛盾のない動画像を後述する画像の統合処理において生成することで、時空間解像度の高い動画像を生成することが可能となる。
ここで、撮像装置10の具体例、つまり、2種類の画像を取得する撮影手段の例を示す。2種類の画像は、図7(a)のように、特性の異なる2種類のカメラを同一画角になるようにハーフミラーを用いて配置して撮影しても良いし、図7(b)のように、1つのカメラ内において特性の異なる2種類の撮像素子を同一画角になるようにハーフミラーやプリズムを用いて配置して撮影しても良いし、図7(c)のように特性の異なる2種類の画像を同時に撮影する撮像素子を用いても良い。
次に、図8(a)〜(c)を用いて、目的とする高速高解像度動画像の画素値(ここでは、輝度値)と、高速画像入力部101aで取得する高速低解像度動画像および低速画像入力部101bで取得する低速高解像度動画像の画素値(ここでは、輝度値)との関係を説明する。この関係は、高速高解像度動画像の各画素が満たすべき外部モデル拘束条件として画像生成に使用する。
ここで、各画像の画素値は撮像時の入射光量に比例し、比例定数も共通であるとする。図8(a)は、目的とする高速高解像度動画像の各フレームの画素の配置を示したものである。説明の便宜のため、高速高解像度動画像の一部を取り出して説明する。図8(a)は、縦(Y軸)方向3画素、横(X軸)方向3画素、4フレームの画素の配置を表している。画素位置(x,y,t)の画素の値をHH(x,y,t)とする。ここでxとyは0、1、2の値の範囲とし、tは0、1、2、3の値の範囲とする。
同様に、図8(b)は、図8(a)と同じ画角を同じ時間に撮影した高速低解像度動画像の画素の配置を示す。ここで、高速低解像度動画像の画素位置(xL,yL,t)の画素値をHL(xL,yL,t)と表す。低解像度画像と高解像度画像ではx、y方向の画素数が異なるため、低解像度画像のx、y座標値をそれぞれxL、yLと表して高解像度画像の場合と区別する。ここでは高解像度画像のx、y方向それぞれ3画素からなる9画素分の領域が低解像度画像の1画素に相当する関係にあり、画素値の関係は数1のようになる。
Figure 2008053765
同様に、図8(c)は、図8(a)と同じ画角を同じ時間に撮影した低速高解像度動画像の画素の配置を示す。ここで、低速高解像度動画像の画素位置(x,y,tL)の画素
値をLH(x,y,tL)と表す。
高速画像と低速画像では時間方向のフレーム数が異なるため、低速画像のフレーム番号をtLと表して高速画像の場合と区別する。ここでは高速画像の4フレーム分の間隔が低速画像の1フレーム間隔に相当する関係にあり、画素値の関係は数2のようになる。
Figure 2008053765
ここで、G(t)は、時刻tの撮影強度を表し、撮像素子の感度や撮影時の絞りの時間的変化による画素値の変化倍率を示している。撮像素子の感度や撮影時の絞りに時間的変化が無い場合には、G(t)=1.0である。また、露光制御部による露光量の時間変化がない場合はG(t)=1.0となる。
なお、上記の例では時間tを離散的に表現しているが、連続的な時間変化と対応付ける場合には、数3の関係式を用いる。数1、数2のHH(x,y,t)を数3でHHcont(x,y,tcont)に置き換えることで、時間的に連続した入力に対する劣化過程を表現することが出来る。
Figure 2008053765
数3において、Δtは生成する高速高解像度画像のフレーム画像の仮想的な露出時間に相当し、tcontは連続した時間、HHcont(x,y,tcont)は時間的に連続な画像、Exp(tcont)は高速高解像度画像のフレーム画像の仮想的な露出の時間変化を表している。
図6(a)および(b)のように、高速画像の露出時間に対して低速画像の露出時間を長くすることで、長い時間にわたる動きの軌跡情報を蓄積することが可能となり、高速高解像度動画像を生成する上で動きの生じている部分の時空間解像度の改善に効果がある。
以上の例では、画素値は撮像時の入射光量に比例する場合(図9(a))で説明したが、γ補正等により比例しない場合(図9(b))や比例定数が画素によって異なる場合には、別途、画像が撮影されたときの撮像素子の入出力特性(入出力関係)を逆に対応付けて利用することで、入射光に対して同一の比例関係を持つ値に画素値を補正し、数1や数2の関係を満たすことができる。例えば、図9(c)のような画素値と補正値の対応関係を用いることで図9(b)のようにして得られた画素値を補正し、図9(a)のようにして得られた画素値と同様に処理することができる。
また、上述の説明では、画素値として輝度値を用いて説明したが、各画素にR、G、Bのカラー値が存在する場合にもR、G、Bの個々の値について輝度値と同様の関係が得られる。
他の外部モデル拘束としては、時空間的に隣り合う画素との画素値の連続性や滑らかさがある。画素値の連続性を用いる場合、
Figure 2008053765
のように高速高解像度動画像の隣り合う画素間の輝度値の差の二乗和Qsを考える。画素値の滑らかさを用いる場合には、
Figure 2008053765
のように高速高解像度動画像の隣り合う画素間の輝度値の二階差分の二乗和Qsを考える。ここで、数4、数5において、XmaxとYmaxとtmaxはそれぞれx方向画素番号、y方向画素番号、フレーム番号の最大値を示す。また、λs(x,y,t)は、拘束条件の時空間的分布を指定する係数であり、後述のステップ604において動きの信頼度を用いて決定する。
このように、外部モデル拘束条件は、生成する高速高解像度動画像に対する評価関数として表現することができる。その評価関数の値(評価値)を下げることが上記外部モデル拘束を生成する高速高解像度動画像に加えることに対応する。
他の外部モデル拘束として、エッジの時空間的連続性を用いても良い。この場合、例えば
Figure 2008053765
に示すように、時間的に隣り合うフレーム間で対応する位置のエッジの向きの変化は少ないという拘束や、
Figure 2008053765
のように、同じ向きのエッジは、そのエッジの方向に空間的に連続して存在するという拘束である。ここで数6、数7のedge(x,y,t,i)は、動画像中の(x,y,t)の位置に存在するi番目の向きのエッジの強度を示す。iはエッジの方向の種類を示し、iは0からimaxまでの整数値をとるものとする。また、数7の(ix,iy)はi番目のエッジの向きの方向を表すベクトルを示す。
また、u(x,y,t)、v(x,y,t)、は画像中の(x,y,t)の位置における動きベクトルのx方向成分とy方向成分を示す。エッジの検出は方位依存性を有するGaborフィルタなどのエッジ検出フィルタの出力を用いたり、数8のように微分演算でエッジの方向と強度を得た後、必要に応じてエッジの方向を離散化して用いることで実現できる。
Figure 2008053765
は高速高解像度動画像HHの座標(x,y,t)におけるエッジの向きと強度を2次元ベクトルとして表しており、ベクトルの向きがエッジの向きに対応し、ベクトルの大きさがエッジの強度に対応する。
ここで、λte(x,y,t)やλse(x,y,t)は、λs(x,y,t)と同様に、拘束条件の時空間的分布を指定する係数であり、後述のステップ604において動きの信頼度を用いて決定する。
また、他の拘束条件として、生成する動画像が表現し得る自由度を予め定めた動画像群の主成分に限定してもよい。例えば、動画像を構成する各フレームの各画素の輝度値HH(x,y,t)を独立な要素とし、動画像を1つのデータ点と考え、予め定めた同じフレーム数・画素数の動画像群に対して主成分分析を行い、主成分を優先して動画像を生成するものである。この場合、非主成分のベクトルをNPC(x,y,t)とし、生成する動画像をHH(x,y,t)に対して、非主成分NPCと生成する動画像HHとの内積を拘束条件とする。この場合、拘束条件は、
Figure 2008053765
のQpcのようになる。NPCは1種類ではなく複数個用意しても良いし、入力画像によってNPCの種類を切り換えても良い。この場合、入力画像と高解像度時の主成分との関係を予め学習しておき、この結果を用いてNPCの選択を行えばよい。例えば、異なる3種類の高速高解像度の動画像群1・2・3を学習用の動画像として用意する。その動画像群それぞれから非主成分のベクトルNPC1・NPC2・NPC3を求める。別途、上記動画像群1・2・3のそれぞれから数1や数2の関係式を用いて高速低解像度動画像群HL1・HL2・HL3と高速高解像度動画像群HH1・HH2・HH3とを求める。
ここで学習すべき関係は、画像群HL1・HH1と画像群HL2・HH2と画像群HL3・HH3の3つの画像群と上記3種類の非主成分NPC1・NPC2・NPC3との対応関係である。対応関係の学習方法は任意の手法を用いてよく、画像群ごとに高速低解像度動画像HLと高速高解像度動画像HHの平均画像の組を求めておき、平均画像の組と非主成分の種類との対応関係を保持しておく(学習)。
新たな入力画像HL・HHの組に対して平均画像の組との差を求め、差の最も小さい平均画像の組に対応する非主成分を入力画像の復元処理に用いるようにする。
平均画像と非主成分の種類との関係を保持する替わりに、高速低解像度動画像HLと高速高解像度動画像HHを入力とし、それらHLとHHに対応する非主成分の種類を出力とした入出力関係をニューラルネットワーク等の学習手法を用いて求めておき、学習後には入力画像HL・HHの組をニューラルネットワークに入力して、出力として得られる種類の非主成分を拘束条件として用いるようにしてもよい。
ここで、λpc(x,y,t)も上記λs(x,y,t)と同様に拘束条件の時空間的分布を指定する係数で後述のステップ604において、動きの信頼度を用いて決定する。
次に、ステップ602では、動き検出部103が、高速低解像度動画像から画像中の動きとその動きの信頼度を算出する。ここで、高速画像入力部101aから得た動画像の各フレーム画像の各位置において、動き分布算出部103aが被写体の動きの向きと大きさを求め(動き検出)、動きの向きと大きさの時空間的分布を求める。
また、動き信頼度分布算出部103bは、動き検出の信頼度の時空間的分布Conf(x,y,t)を併せて求める。この場合、動き検出の信頼度とは、信頼度が高い程、動き検出の結果が尤もらしく、信頼度が低い場合には動き検出の結果に誤りがあることを意味する。
隣り合う2フレーム画像間の画像上の各位置での動きの求め方については、例えば、P.ANANDAN,“A Computational Framework and an Algorithm for the Measurement of Visual Motion”,IJCV,2,283−310(1989)(非特許文献3)で用いられる方法や動画像符号化で一般的に用いられる動き検出手法や、画像を用いた移動体追跡などで用いられる特徴点追跡手法などを用いることができる。
また、画像全体の大域的動き(アフィン動きなど)検出の一般的手法や、Lihi Zelkik−Manor、“Multi−body Segmentation:Revisiting Motion Consistency”、ECCV(2002)(非特許文献4)などの手法を用いて複数の領域ごとの動き検出を行い、各画素位置での動きとして用いてもよい。
信頼度の求め方については、上記(非特許文献3)の文献に記載の方法を用いてもよく、ブロックマッチングを用いた動き検出の場合には、数10のように、動きに対応するブロック同士の画素値の差の2乗和を差の2乗和が取り得る最大値SSDmaxから引いた値、つまりブロック同士の画素値の差の2乗和の符号を逆にした値Conf(x,y,t)を信頼度として用いても良い。また、画像の大域的動き検出や領域ごとの動き検出を用いた場合にも、各画素位置の動きの始点近傍領域と終点近傍領域との画素値の差の2乗和を2乗和が取り得る最大値SSDmaxから引いた値Conf(x,y,t)を信頼度として用いても良い。
Figure 2008053765
数10において、位置(x',y',t+1)は、動き検出の結果として得られた画素位置(x,y,t)の移動先に相当する画素位置である。また、数10のΣはブロックマッチングで用いるブロック領域内での加算を表す。
なお、上記説明では、高速画像入力部101aから得た画像を用いて動き検出と信頼度算出を行ったが、同様の動き検出処理を低速画像入力部101bから得た画像に対して動き検出と信頼度算出を行っても良い。
また、撮影機器の姿勢の変化を検出するセンサの情報(センサ入力部103cに入力されてくる信号)を入力として用いても良い。この場合、撮像装置10が加速度や角加速度センサを備え、センサ入力部103cが加速度の積分値として速度や角速度を得ることで、動き分布算出部103aは、センサ入力部103cに入力された情報から、手ブレなどのようなカメラの姿勢の変化による画像全体の動きの情報を得ることができる。
例えば、画像入力部101としてカメラを用いた場合、そのカメラに水平方向と垂直方向の角加速度センサを備えることで、そのセンサの出力から水平方向と垂直方向の加速度を各時刻における姿勢計測値として得ることができる。加速度値を時間で積分すると各時刻の角速度を算出することができる。
カメラが時刻tに水平方向にωhの角速度を持ち、垂直方向にωvの角速度も持つ場合、カメラの角速度はカメラの向きの起因する撮像素子上(撮影画像上)の位置(x,y)における時刻tにおける像の2次元的動き(u,v)と一意に対応付けることができる。
カメラの角速度と撮像素子上での像の動きとの対応関係は、カメラの光学系(レンズなど)の特性(焦点距離やレンズひずみなど)と撮像素子との配置や撮像素子の画素間隔とから一般的に決定できる。実際に算出するには、光学系の特性と撮像素子の配置や画素間隔から幾何学的・光学的に算出して対応関係を得るか、あらかじめ対応関係をテーブルとして保持しておき、カメラの角速度ωh・ωvから、撮像素子上(x,y)の像の速度(u,v)を参照するようにしてもよい。
このようなセンサを用いた動き情報も画像から得た動き検出の結果と合せて用いても良い。この場合、動き分布算出部103aは、画像全体の動き検出には主にセンサの情報を用い、画像内での対象の動きは画像を用いた動き検出の結果を使用すればよい。
次に、ステップ603では、動き拘束指定部104cが動き検出部103が求めた動き検出結果と、目的とする高速高解像度動画像との関係を指定する。図10(a)および(b)を用いて低解像度画像で求めた動き検出結果と高速高解像度動画像との関係を説明する。
図10(a)および(b)は、それぞれ、高速画像の隣り合うフレーム画像(フレーム番号tとt+1)を表している。簡単のため、低解像度画像において3画素×3画素の領域で説明する。ここで、低解像度画像の1画素を更に3画素×3画素に分けた領域が高解像度画像の画素を表している。なお、図10(a)および(b)では、説明に必要な高解像度画素のみ図示している。
ここで、動き検出部103が動き検出を行った結果として、図10(a)の太線501の低解像度画素位置が、図10(b)の画素位置502に対応している(枠501の画像が枠502に移動した)とする。ここで、上述のような動き検出の手法では一般的に画素サイズより小さい単位で動きの向きや大きさを算出することができる。
従って、低解像度画像の動き検出の結果を用いて、図10(b)のように低解像度画素位置に一致しない高解像度画像の画素単位の動きを算出し、高速高解像度の画素に対する数11の関係を得ることができる。
この動き検出の結果を用いて、太線の枠内(501,502)の高速高解像度動画像の各画素値について
Figure 2008053765
の関係が成り立つと想定する。
ここで、u(x,y,t)とv(x,y,t)は、検出結果を表しており、図10(a)の太線の黒枠(501)内の位置(x,y,t)が図10(b)の太線の黒枠(502)内の位置に移動する動きのうちx方向の移動量をu(x,y,t)、y方向の移動量をv(x,y,t)と表している。上記の例では、動き検出を高速低解像度動画像で行ったが、低速高解像度動画像において動き検出を行った結果を同様に用いてもよい。高解像度画像を用いた場合は、動き検出を求めるフレームの時間間隔は増すが、フレーム内での対応付けの位置精度は向上する。
次に、ステップ604では、拘束制御部104bが拘束条件の強度の時空間的分布を決定し、拘束指定部104eが生成する高速高解像度動画像に対する総合的な拘束条件を指定する。以下詳細を説明する。拘束指定部104eは、上記数1、数2で示す高速高解像度動画像と高速画像・低速画像との画素値の関係と、上記数11で示す動き検出結果と高速高解像度動画像との関係と、上記数4、数5、数6、数7、数9などで示す外部モデル拘束とを用いて、目的とする高速高解像度動画像に対する総合的な拘束条件J(HH)を指定する。数12に総合的な拘束条件Jの例を示す。
Figure 2008053765
数12において、右辺の第1項は高速高解像度動画像から数1の関係式を使って作り出した高速低解像度動画像HL’と高速画像入力部101aに実際に入力される高速低解像度動画像HLとの差(対応する画素値との差の2乗和)を表す拘束で、第2項目は高速高解像度動画像から数2の関係式を使って作り出した低速高解像度動画像LH’と、低速画像入力部101bに実際に入力される低速高解像度動画像LHとの差(対応する画素値との差の2乗和)を表す拘束である。第1項目の拘束と第2項目の拘束は、生成した画像と撮影した画像との輝度値の関係が、上記数1と数2の関係をできるだけ満たすようにするものであり、撮影画像と生成画像との間で輝度値の矛盾を生じにくくする条件である。
数12の右辺の第3項目は外部モデル拘束条件Qsであり数4や数5の条件を用いる場合には生成した画像において時空間的に隣り合う画素の輝度値は近い値を持ちやすいような拘束である。従って、ノイズのように輝度値が時空間的に小刻みに変化するような画像の生成を抑制する。数12の右辺の第4項目は動き検出結果に基づいた拘束条件Qmであり、動き検出を行った結果と生成画像との間に矛盾が生じにくいように動き検出の結果を用いた拘束の例を数13に示す。
Figure 2008053765
数13では高速高解像度動画像における隣り合うフレーム間(tとt+1)の動きu、vを用いて拘束を構成しているが、1フレーム以上離れたフレーム間での動き検出結果u’、v’を用いて数14のように離れたフレームとの間の動き検出を行った結果を用いて拘束条件を設定してもよい。また、数13と数14のような拘束を併用しても良い。
Figure 2008053765
異なるフレーム間隔での動き検出を用いることで、遅い動きなどのように少ないフレーム間隔では検出しにくい動きなどを検出し、画像生成に反映させることが可能となる。
数12の右辺の第5項目はエッジの時間的連続性を示す拘束条件であり、数12の右辺の第6項目はエッジの空間的連続性を示す拘束条件、数12の右辺の第7項目は生成画像から非主成分を抑制する拘束条件である。
ここで、λs、λm、λse、λte、λpcは拘束条件の強度の時空間的分布を決定する係数であり拘束制御部104bが決定する。ステップ602で動き信頼度分布算出部103bが求めた動き検出の信頼度をConf(x,y,t)(>0)とし、値が大きいと動き検出の信頼度が高いとする。
λs、λm、λse、λte、λpcの決め方の例として、αを予め定めた定数としてConf(x,y,t)>αを満たす場合にλm(x,y,t)=1.0のように動き拘束を有効にし、他の拘束条件を座標(x,y,t)において予め定めた小さな値ε(<1.0)に設定し、Conf(x,y,t)<=αではλm(x,y,t)=0.0、他のλを1.0とする。つまり、動き検出部103において、動画像を構成する各画像を分割したブロック単位で動きを検出するに際し、ブロック同士の画素値の差の2乗和を前記2乗和の取り得る値の最大値から引いた値を動き検出の信頼度Conf(x,y,t)として算出し、画像統合部104において、その差が予め定めた値αよりも大きいブロックを信頼度の高い画像領域とし、その差が予め定めた値α以下のブロックを信頼度の低い画像領域として、信頼度の高い画像領域については動き検出の結果を用いて新たな画像を生成し、信頼度の低い画像領域については外部モデル拘束条件を用いて新たな画像を生成する。
他のλの決め方として、ある単調増加関数g(x)を用いてλm(x,y,t)=g(Conf(x,y,t))、他のλの(x,y,t)における値をg(Conf_max)−g(Conf(x,y,t))とするように、連続的に定義してもよい。ここで、Conf_maxは信頼度が取り得る値の最大値である。このように、動き検出の信頼度が高い時には動き拘束に重きを置き、信頼度が低い時には外部モデル拘束の割合を増すことで、動き検出が正確に行えない位置においても、画像が劣化することを抑え、時空間解像度を高めることが可能となる。また、上記では外部モデル拘束として複数の拘束を同時に用いたが、同様に他の拘束を更に加えて用いても良いし、一部の拘束のみを用いても本発明の効果は得られる。
次に、ステップ605では、統合処理部104aが拘束条件Jを最小にする高速高解像度動画像を求める。拘束条件Jを最小にする高速高解像度動画像の求め方としては、例えば、拘束条件Jを高速高解像度動画像の各画素値で微分した式が0とおいた数15の方程式を解いて求めることや、最急勾配法などを用いて繰り返し法を用いて求めても良い。最後に、ステップ606では、統合処理部104aは、生成した高速高解像度の画像を出力する。
Figure 2008053765
より具体的な入力画像の組と出力画像の例を図11から図15を用いて説明する。ここでは説明を容易にするために、6画素×6画素×4フレームの動画像を用いて説明する。これはより大きな画像やフレーム数の大きい動画像の一部とみなすことができる。
ここで、図11(a)〜(d)は、撮影の対象を仮に高速高解像度で撮影できた場合の画像を示す。図11(a)〜(d)の映像は本来撮影により取得できないが、説明の為に示す。図11(a)〜(d)は4フレームを時間の順番に並べており、静止している被写体1401と移動している被写体1402が写っている。
このような被写体に対して、高速低解像度動画像と低速高解像度動画像を得る(ステップ601)。このような被写体の高速低解像度動画像(画素数が縦横それぞれ1/3の場合)の例を図12(a)〜(d)に示す。図12(a)〜(d)は、図11(a)〜(d)の撮影時間に対応するフレームである。ここで、黒の画素と白の画素との中間の画素値の画素は左下向きの斜線で示している。フレーム数は図11(a)〜(d)と同じであるが、空間解像度が図11(a)〜(d)よりも低い。
同様に、このような被写体の低速高解像度動画像(フレーム数1の場合)の例を図13に示している。空間解像度は図11(a)〜(d)と同じであるが、図11(a)〜(d)のフレームの間を露出しているため、被写体1402が移動軌跡として撮影されている。
次に、高速低解像度動画像から、動き検出部103は、画像中の被写体の動きと動きの信頼度を求める(ステップ602)。図11(a)〜(d)の画像がより大きな画像の一部を示しているため、動き検出自体はより大きな画像全体で行った結果のうち、図11(a)〜(d)の画像領域に関する結果を得ても良い。
図14(a)〜(d)に信頼度の分布の例を示す。図14(a)〜(d)は、図11(a)〜(d)の撮影時間に対応する。図14(b)および(c)において、右下向きの斜線部分が動き検出の信頼度が低い場所を示し、他の領域(白および黒の画素)は動き検出の信頼度が高い場所を示している。ここで白と黒の画素の表示は被写体との関係を表しており、信頼度では区別はない。また、静止している被写体や背景に対する動き検出の結果は動きの量が0という扱いになる。
図11(a)〜(d)の被写体のような場合、2つの被写体1401と1402が接近するあたりでは正確な動き検出が困難となる。拘束制御部104bは、動き検出結果を用いた拘束の設定(ステップ603)と動きの信頼度の低い位置に対する外部拘束条件とから総合的な拘束条件を設定し(ステップ604)、その拘束条件を用いて統合処理部104aは高速高解像度動画像を生成・出力する(ステップ605、606)。
図15に生成した画像の例を示す。
図15(a)〜(d)は、図11(a)〜(d)の撮影時間に対応する。2つの被写体が接近するフレーム図15(b)、(c)では画素値が中間的な値になっているものの、本来撮影では得られない図11の映像に近い映像が得られる。
対比のため、図16には動き検出の結果のみを用い、動きの信頼度や外部拘束条件を用いない場合の生成画像の例を示す。動き検出が正確に行えない図16(b)、(c)のフレームの画像の右上において正確な画像の生成が行えていない。
図16(b)、(c)の結果とは異なり、図15の結果では、動き検出が図14(b)、(c)の右上の領域で正確に行えていないことから、外部拘束条件により、画像の他の位置や他のフレームとの画素値の連続性(数4、数5など)やエッジの連続性(数6、数7など)や動画像の主成分の傾向(数9など)を用いることで、統合処理部104aは高速高解像度動画像として望ましい画像を生成することができる。
次に、低速高解像度動画像の露出時間を高速低解像度動画像のフレーム間隔よりも長く撮影する効果を図17〜図24の画像を用いて説明する。
図17(a)〜(e)は、撮影の対象を仮に高速高解像度で撮影できた場合の画像を示す。図17(a)〜(e)の映像は本来撮影により取得できないが、説明の為に示す。図17(a)〜(e)は時間的に連続する5フレームを時間の順番に並べており、移動している被写体A1が写っている。
このような被写体に対して、撮影した高速低解像度動画像を図18(a)〜(e)に示し、低速高解像度動画像を図19(a)および(b)と図20(a)および(b)に示す。図18(a)〜(e)は、それぞれ図17(a)〜(e)の時間に対応するフレーム画像を示している。
図18(a)〜(e)は低解像度の画像を高解像度画像と同じ大きさに図示しているため、解像度の低さが画素の荒さとして現れている。ここで、低速高解像度画像は高速低解像度画像の4分の1のフレームレートとし、図19(a)と図20(a)は図17(a)の時間に露出を開始したフレーム画像に対応し、図19(b)と図20(b)は図17(e)の時間に露出を開始したフレーム画像に対応している。
図19(a)および(b)は従来例のように低速高解像度画像の露出時間を短くしている場合のフレーム画像を示している。図20(a)および(b)は本願発明で示すように、低速高解像度画像の露出時間を高速低解像度画像のフレームレートよりも長くして撮影したフレーム画像を示している。
このようにして撮影した画像を用いて前記の手続きで生成した画像の例を図21〜図24に示す。ここで、図21〜図24の(a)〜(e)は、それぞれ図17(a)〜(e)の時間に対応するフレーム画像を示す。また、図22〜図24の(a)〜(e)において斜線部分は被写体A1の輝度と背景の輝度との中間輝度の領域を表している。
図21(a)〜(e)と図22(a)〜(e)は、図18(a)〜(e)と図19(a)、(b)の入力画像を用いて生成した画像の例であり、図23(a)〜(e)と図24(a)〜(e)は、図18(a)〜(e)と図20(a)、(b)の入力画像を用いて生成した画像の例である。図21(a)〜(e)は動き情報を用いずに生成した画像の例を示し、図22(a)〜(e)は動き情報を用いて生成した画像の例を示している。
図21(a)と(e)、図22(a)と(e)は図19の入力画像と同じタイミングのため鮮明な画像が得られる。一方、図21(b)〜(d)では動き情報を用いないため、図18(b)〜(d)と同等の低解像度画像となっている。
また、図22(b)〜(d)では低速高解像度画像を撮影したフレームから離れるに従い、画像の不鮮明さが増し、次の低速高解像度画像の撮影フレームに達したときに再び鮮明な状態に戻る。
これは、低解像度高速画像から得た動き情報を利用して図22(b)〜(d)の生成画像の空間解像度を向上させる必要があるものの、低解像度画像から動き検出を行うため、動き検出の精度が低くなることと、動き検出では不可避な検出誤差が生じることに起因する。これらの動き検出誤差がフレーム毎に蓄積するため鮮明度が次第に低下する。
このように、図19(a)および(b)のような入力を用いた場合、動き検出の情報が得られないか、不正確であると、図22(b)〜(d)において生成画像の鮮明度が次第に低下すると同時に、生成画像の鮮明度が周期的に(前記の例では4フレーム周期)大きく変動し、見辛い画像になり得る。低速高解像度画像のフレーム間隔が長いほどこの傾向は顕著となる。
動き検出の精度が高解像度画像の解像度の精度で正確に得られれば上記のような問題は生じないが、画像中の被写体形状の複雑な変化やオクルージョン、照明変動等により、現実的には低解像度画像からの高精度の動き検出は困難である。
図23(a)〜(e)は動き情報を用いずに生成した画像の例を示し、図24(a)〜(e)は動き情報を用いて生成した画像の例を示している。図23(a)〜(e)では図17(a)〜(e)や図19(a)、(b)の画像に比べて多少鮮明さは低下するものの、図22(d)のような大きな鮮明度の低下が生じない。また、時間的な鮮明度の変化が抑えられており、鮮明度の時間変化による見辛さは軽減できる。更に、図24(a)〜(e)では動きの情報を用いるため、図23(a)〜(e)に比べて更に鮮明度が向上する。
このように従来の画像生成方法では、高速低解像度画像も低速高解像度画像とも露出時間を短くし、動きブレを抑えることで、個々の画像を鮮明に撮影していたが、生成した画像の画質を安定させ、突発的な画像の変化を適切に生成画像に反映させる上では必ずしも望ましいとはいえなかった。
本願発明の画像生成手法ではこのような従来手法とは異なり、生成する高速高解像度画像の鮮明さの向上とフレーム間の鮮明度の変化を抑えるために動きブレが生じうる長時間撮影により得た低速高解像度画像を用いてが画像を生成することを特長とする。
これにより、動き検出が行われない場合にでもフレーム毎の画質の変動を抑えるとともに、画像の動き情報を加味することで画像の鮮明さを向上させることが可能となる。
更に、動き検出の信頼度を用いて信頼度の高い動き情報のみ用いることで、誤った動き情報による画像の劣化を抑えることが可能になる。
なお、長時間露出の露出時間は低速画像のフレーム間で開放すると効果を得やすい。実際には、画素値の読み取り等により、露出終了と次フレームの露出開始までには未露出時間が生じうる。このような場合にでも可能な範囲で露出を長くしておくことで本願発明の効果を得ることが可能である。
なお、長時間撮影を用いて画像を生成したか否かは、高解像度でかつ突発的な画像の変化が図19(a)と(b)の間で生じた場合に生成画像にその変化が含まれるか否かで判断することができる。
ここまで、露光制御部105が低速高解像度画像の1フレームの露光期間中の露光量を時間的に一定にする制御を行った場合について説明した。次に、露光制御部105が低速高解像度画像の1フレームの露光期間中の露光量を時間的に変化させる制御を行った場合について説明する。
図25(a)は、低速画像入力部101bで取得する低速高解像度動画像の露光量の時間変化の例で、図25(b)は、高速画像入力部101aで取得する高速低解像度動画像の露光量の時間変化の例を示す。図25(a)および(b)で横軸は時間、縦軸は撮像時の露光量を示す。図25(a)および(b)はそれぞれの画像について同じ期間における露光量の時間変化を表しており、1つのつながった太線が各画像の1フレームを得るための露出量の時間変化を表している。
図25(a)では、低速高解像度画像の1フレームを得るための1回の露出期間中に露光が行なわれている状態と無露光状態が4回繰り返されることが、太線21a1によって示されている。図25(b)では、図25(a)での1回の露出と同じ期間に、高速低解像度画像の4つのフレームを得るために4回の露出(太線21b1、21b2、21b3、21b4)が行なわれることが示されている。
図8(b)では、フレーム間隔と露出時間とが等しい(つまりフレーム間で開放露光を行う)として高速低解像度画像の劣化過程を説明したが、ここでは、図25(b)に示されるように、高速低解像度画像は、フレーム間隔よりも露出時間が短くなる(言い換えれば、各フレームの露光期間の一部が無露光期間となる)ように制御される。また、図25(b)の高速低解像度画像の4回の未露出期間に同期して、図25(a)の低速高解像度画像の1回の露出中の減光期間が設定される。
次に、図26を用いて入力画像の露光タイミングと生成画像における仮想的な露光タイミングとの関係を説明する。ここで仮想的な露光タイミングとは、生成画像に相当する画像を実際に撮影できたと仮定した場合の露光タイミングに相当する。
図26(a)は低速高解像度画像(破線から破線が1フレームの露光期間を示す)における露光タイミングを表し、縦軸の上側が露光している状態、下側が無露光の状態を示している。図26(a)では1フレーム中に露光と無露光の状態を9回繰り返している。図26(b)は図26(a)と同時に撮影している高速低解像度画像の露光タイミング(白色)と無露光タイミング(斜線)とを表している。
高速低解像度画像では1フレームごとに露光と無露光とを1回ずつ含んでいる。図26(b)では低速高解像度画像1フレームの間に、高速低解像度画像が9フレーム含まれている。
図26(c)は生成画像(高速高解像度画像)の仮想的な露光タイミングを表している。
ここで、図26(a)、図26(b)の露光期間は一致している。このような関係は、一例として、低速高解像度画像の1フレームの露光期間に含まれる無露光期間に高速低解像度画像の露光量もまた低減させるよう、露光制御部105が撮像装置10を制御することによって実現できる。
また、高速低解像度画像の各フレーム期間の予め定められた一部が露光期間、残部が無露光期間として制御される場合に、高速低解像度画像の露光期間において低速高解像度画像の1フレームの露光が行われるように露光制御部105が撮像装置10を制御しても、このような関係は実現される。
このような関係を満たすように撮影した画像を用いて図26(c)のような仮想的な露光タイミングを持つ動画像を生成することにより、次のような効果が得られる。
すなわち、露光および無露光のタイミングが混在していても、数1や数2のような線型式は満たされるため、画像生成の手続きを露光および無露光のタイミングに依存して複雑に構成する必要が無い。しかも、露光および無露光のタイミングが混在している場合には、入力画像の時間方向の周波数特性では高周波数成分の割合が向上し、生成画像における時間方向の高周波数成分の再現性も向上する。
ステップ601以降では、前述した露光量を時間変化させない場合と同じ処理を行う。ここで、図17(a)〜(e)と同じ被写体について被写体の動きが速い場合について考える。
露光制御部105が低速高解像度画像の露光量を時間的に変化させず、高速低解像度画像のフレーム間隔と露出時間とが等しい場合の高速低解像度画像の例を図27(a)〜(c)に示す。図27(a)、(b)、(c)は連続するフレームの画像であり、各フレーム画像では動きブレが目立っている。これは高速画像であってもフレーム間で被写体が大きく動くことによる。図28は同時に撮影した低速高解像度画像の例である。図28は、図27(a)、(b)、(c)の3フレームの時間にわたって露光量を時間的に変化させずに撮影しており、さらに大きな動きブレを含む画像となっている。
図27(a)〜(c)の高速低解像度画像と、図28の低速高解像度画像とに対して、図24(a)〜(e)に示される動画像を生成した場合と同じ処理を適用した結果の一例を図29(a)〜(c)に示す。図29(a)、(b)、(c)は、図27(a)、(b)、(c)の各フレームの時間に対応する。
図29(a)〜(c)において、高速低解像度画像と同じフレームレートで図27(a)〜(c)よりも高解像度化された画像が得られている。しかしながら、図27(a)〜(c)に含まれる動きブレは図29(a)〜(c)にも含まれている。これは、高速低解像度画像のフレームレートよりも速い動きの情報が撮影時に得にくいことによる。
次に、同じ被写体に対して図25(a)および(b)のような露光量の時間変化を行った場合を考える。露光制御部105が低速高解像度画像の露光量を時間的に変化させて撮影した画像の例を図30(a)〜(c)、図31に示す。
図31は低速高解像度画像で、図28と同じ被写体を、図25(a)のように露光量を時間的に変化させて撮影した画像となっている。ここで、図31の斜線部分は黒色の領域と白色の領域の中間的な画素値(輝度値)を表している。露光量を時間的に変化させているため、被写体の画素値(輝度値)が動きの方向に沿って変化している。
図30(a)〜(c)は高速低解像度画像で、図25(b)のように低速高解像度画像の露光区間に合わせて露出時間を設定している。フレーム間の被写体の移動量は図27(a)〜(c)と図30(a)〜(c)とで等しいものの、露出が短いため図30(a)〜(c)では各フレーム画像の被写体の動きブレが図27(a)〜(c)の場合に比べて少なくなっている。
このような入力画像を用いて生成した画像を図32(a)〜(c)に示す。図32(a)〜(c)は図29(a)〜(c)に比べ、動きブレが抑えられた高解像度画像となっている。これは、図29(a)〜(c)の場合と同じ被写体を同じフレームレートで撮影しているものの、露光量を時間的に変化させていることで、時間的に高い周波数の情報を取得し、画像生成に利用していることに因る。
上記の例では、図25(a)および(b)のように低速高解像度画像撮影時の未減光区間と高速低解像度画像の露出時間とを一致させて撮影した場合を説明したが、図33(a)および(b)を用いて両者が一致しない場合の例について説明する。
図33(a)は図25(a)と同じ露光量の時間変化を表しているが、図33(b)の高速低解像度画像のフレームレートは図25(b)の場合の半分であり、破線の22b2、22b4で示される露出期間のフレームは実際には撮影されていない。
このような場合、太線22b1及び22b3で示される露光によって撮影された2つのフレーム画像を用いて画像間の動きベクトルを検出する。そして、画像間の対応点の動きを用いて破線22b2で示される露出期間に得られたであろう画像を生成する。同様に前後のフレーム画像を用いて破線22b4で示される露出期間における画像も生成する。このような生成は、従来技術である時間方向の補間処理によって行うことができる。
このようにして、破線22b2及び22b4で示される露出期間における画像を生成した後に、図25(b)の場合と同等の処理を行なうと、図32(a)〜(c)のような高速高解像度かつ動きブレの抑えられた画像を得ることが可能となる。
但し、低速高解像度画像の露光量の時間変化と、高速低解像度画像の露出時間とを合わせることが望ましい。一致させることで、両画像から得られる情報の時間方向での過不足が抑えられ、撮影していない時間の画像の推定といった付加処理による誤差の発生や演算量の増加を抑える効果がある。
なお、露光量を時間的に変化させる方法としては、機械式の開閉シャッタや液晶シャッタ等の同様の機能を有する装置を撮像部よりも被写体側に設置することで実現することができる。同様に、照明変化をさせることで、露光量を時間変化させてもよい。
照明変化を用いる場合、付加すべき装置が簡易に構成できる点や、高速な露光量の変更が行ないやすい利点があるが、被写体までの距離が遠い場合は、照明強度を強くする必要がある。一方、シャッタ等を用いる場合は、被写体の距離に関係なく適用できる利点がある。両方を併用してもよいし、どちらか一方を使っても、本発明の効果は得られる。
このように、低速高解像度画像の露光量を時間的に変化させることで、変化させない場合に比べて時間的により高周波数の情報を取得して画像を生成することが可能となる。その結果、各フレーム画像での動きブレを抑えるなど生成画像の高周波数成分の再現性を高めた画像を得ることが可能となる。
上記の例では、画像統合部104は、生成画像を出力するのみであるが、生成画像の出力と併せて画像生成の信頼度を出力しても良い。画像生成の信頼度γは生成した画像が正確に高速高解像度化されている度合いを予測する値である。γの決め方としては、以下の数16に示される動きの信頼度の総和や、
Figure 2008053765
有効な拘束条件の数Nと求めるべき動画像の総画素数M(=フレーム数×1フレーム画像の画素数)との比率N/Mなどを用いることができる。ここでN=Nh+Nl+Nλ×Cであり、Nhは高速画像の総画素数(フレーム数×1フレーム画像の画素数)、Nlは低速画像の総画素数、Nλは外部拘束条件を有効にする時空間位置(x,y,t)の総数、Cは外部拘束の種類の数とする。
なお、数15などの方程式を連立1次元方程式として解く場合には、Cline,A.K., Moler,C.B.,Stewart, G.W.and Wilkinson,J.H.,“An Estimate for the Condition Number of a Matrix”,SIAM J.Num. Anal.16(1979),368−375.(非特許文献5)などに記載されている解の算出計算の安定性を示す条件数を信頼度として用いることができる。
動きの信頼度の高い場合、動き拘束を用いた生成画像の信頼度も高いことが期待できる。また、生成する動画像の総画素数に対して有効な拘束条件が多い場合には、解としての生成画像を安定して得ることができ、生成画像の信頼度も高いことが期待できる。同様に、上記条件数が小さい場合にも解の誤差が小さいことが期待できる為、生成画像の信頼度が高いと期待できる。
このように、生成画像の信頼度を出力することで、出力した動画像に対してMPEGなどの圧縮符号化を行う際に、信頼度の低い場合には圧縮率を高め、逆に、信頼度の高い場合には圧縮率を低く設定することが可能となり、適切な圧縮率の設定が可能となる。
例えば生成画像の信頼度γと符号化の圧縮率δとの関係を図34のように単調増加の関係に設定し、生成した動画像の信頼度γの値に対応する圧縮率δで符号化を行う。生成画像の信頼度γが低い場合には生成画像が誤差を含みうるため、圧縮率を高くしても実質的に情報の欠損があまり生じないことが期待されるため、効果的にデータ量を削減できる。
ここで圧縮率とは、もとの画像のデータ量に対する符号化後のデータ量の割合で、圧縮率が高い(大きい値)ほど、符号化後のデータ量は小さくなり、復号化した際の画質は低下する。
同様に、MPEGの場合などでは、前記信頼度の高いフレームを優先的にIピクチャなどのフレーム内符号化の対象とし、他のフレームをフレーム間符号化の対象とすることで、動画像の再生時の早送り再生や一時停止時などの画質を向上させることが可能となる。
例えば、前記生成画像の信頼度をフレーム毎に求めておきγ(t)と置く。tはフレーム時刻である。連続する複数のフレームの中から、フレーム内符号化を行うフレームを選択する際にγ(t)が予め定めた閾値γthより大きいフレームの中から選択したり、予め定めた連続フレーム区間の中で最もγ(t)の大きいフレームを選択する。
なお、出力動画像を符号化する処理の有無に関わらず本発明の効果は得られる。
また、上記の例では、画素値として単一の輝度のみを前提に説明したが、輝度に対する上記の処理をRGBカラー表現のRとGとBの各成分について個々に同じ処理を行って高速高解像度動画像を得ることで、カラー画像に対しても高速高解像度動画像を生成することが可能である。
また、より簡易に色情報を扱う方法としては、低速画像を輝度と色差に分解し、輝度画像のみを上記の処理で高速高解像度化し、色差情報は補間拡大して前記高速高解像度輝度画像に付加することでも、効果は得られる。この場合、画像の情報の主成分は輝度に含まれる為、他の色差の情報が補間拡大された場合であっても、両者を合せることで、入力した画像に比べて、高速高解像度化した動画像を得ることが可能となり、RGB独立に処理する場合に比べて処理量を削減することが可能となる。
このようなカラー画像に対する処理の手順を図35に示す。ステップ2101では高速低解像度動画像を輝度画像と色差画像に分離し、続いて、ステップ2102で、前記輝度画像と低速高解像度動画像の輝度画像とを用いて図5の手順に基づいて高速高解像度動画像を生成する。ステップ2103では、前記色差画像を高解像度画像と同じ画素数に補間拡大する。ステップ2104では、前記生成輝度画像と前記補間拡大した色差画像とを合成して高速高解像度のカラー画像を生成する。
このように、画像統合部104が、高速低解像度動画像から色差情報を抽出し、高速低解像度動画像の輝度情報と低速高解像度動画像とから中間的な新たな動画像を生成し、生成した中間的な動画像に色差情報を付加することによって、最終的な新たな動画像を生成することで、カラーの動画像を少ない処理量で統合することができる。
以上のように、本実施の形態における画像生成システム100によれば、動き検出部103が求めた動きの信頼度に応じて、拘束制御部104bが外部モデル拘束条件と動き拘束条件とを有効にする度合いを決定し、前記拘束条件を用いて高速画像と低速画像を統合することにより、動き検出が行えない場合や、動き検出の精度が低い画像領域においても高速高解像度の動画を得ることができる。
なお、本実施の形態では、動画像全体を一括で処理する例を説明したが、動画像を時空間的に複数の領域に分割し、前記各領域において上記と同様の処理を行って高速高解像度の部分動画像を生成した後、生成した前記各部分動画像を時空間的に接合し、動画像全体の高速高解像度の動画像を得ても良い。このように時空間的に分割処理を行う事で、画素数の多い画像やフレーム数の多い動画像を行う際に必要となる計算処理量やメモリ量を抑制する事が可能となる。特に、時間方向に動画像を分割することで、過去に入力された複数フレームを一括処理することによる画像生成の時間遅れを短縮することも可能になる。
また、上記のように分割処理する際に、隣接する時空間領域が分割境界近傍において、重複するように、各領域を設定してもよい。図36に空間的に重複を持たせて領域分割をした例を示す。図36では画像を空間的に重複領域を持たせて領域701〜704の4領域に分割している。個々の領域に相当する動画像を生成した後に、重複部分の画素値は重複する各領域の画素値を重み付け加算平均を行うことで、滑らかな接合を行うことができる。また、時間方向に重複を持たせて図36と同様に領域分割しても良い。このように、重複領域を持たせることで、領域分割処理において隣接する領域間での処理結果の不連続性を抑制する事ができる。
なお、このような重複を許す分割処理において、重複領域の大きさは、予め定めておく。重複領域の大きさを大きくすることで、処理領域間での処理結果の不連続性を低減する効果が増す。重複領域の大きさを小さくすると重複によって増加する計算量を抑えることが可能となる。
また、上記のように領域分割する際の時間方向の領域境界としては、予め動画像のフレーム間の画像の変化を算出し、フレーム間の画像の変化が予め定めた基準より大きいフレーム間に時間的な領域境界を設定しても良い。例えば、隣り合うフレーム画像の差として数17のような値SSD(t)を定義し、SSD(t)>thを満たす場合に、時刻tのフレームと時刻t+1のフレームとの間を処理の境界とし、時刻t以前のシーケンスと時刻t+1以降のシーケンスの処理を分けて行う。
Figure 2008053765
ここで、I(x,y,t)は時刻tのフレーム画像中の位置(x,y)における輝度を示し、thは予め定めた閾値である。また、閾値thを基準として処理の区切りを決定する替わりに、処理の区切りを設けたい時間領域のシーケンスにおいて前記SSD(t)が最大になる時刻tを処理の区切りとしても良い。このようにすることで、時間的に隣接する領域間の処理結果の不連続性がフレーム間の画像の変化に対して相対的に小さくなる事で不連続性が知覚されにくくなるという効果が期待できる。
以上、本発明に係る画像生成装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。実施の形態に対して当業者が思いつく変形を施して得られる形態も本発明に含まれる。
実施の形態では、統合処理部104aが、拘束指定部104eによって指定される数12の総合的な拘束条件Jに従って、入力された静止画像(低速高解像度画像のフレームの1つ)と、その静止画像の露光期間における目的とする高速高解像度動画像の複数のフレームの合計との誤差(数12の右辺の第2項)を減少させることによって、高速高解像度動画像を生成すると説明した。
ここで、合計の代わりに、合計と定数倍の関係にあって合計とは実質的に等価な情報である平均を用いても構わない。すなわち、静止画像と、その静止画像の露光期間における目的とする高速高解像度動画像の複数のフレームの平均との誤差を減少させることによって、目的とする高速高解像度動画像を生成する構成も、本発明に含まれる。
また、本発明の画像生成装置が行なう画像生成処理の一部または全部は、専用の機器で行わせるようにしてもよいし、コンピュータ端末装置や、基地局等に配置される通信機器や、スタンドアロンのコンピュータに内蔵されるCPUが画像生成処理プログラムを実行することによって、画像生成処理を行うようにしてもよい。
また、図3に示された画像生成システム100の構成のうち、表示装置40を除いた構成を用いて、図37に示すようなカメラ300として、つまり、単体の装置として本発明を実現してもよい。
さらに、図37に示されたカメラ300に表示装置40を付加することにより、動画像録画・再生機能付きのカメラとして実現しても良い。
また、図3に示された画像生成システム100の構成のうち、撮像装置10を除いた構成を用いて、図38に示すようにテレビなどのディスプレイ機器400として本発明を実現しても良い。この場合、あらかじめ録画してある動画像の時空間解像度を向上させて表示することが可能になる。
なお、請求の範囲と実施の形態における構成要素の対応は次の通りである。つまり、請求の範囲における「露出制御手段」、「画像入力手段」、「動き検出手段」、「画像統合手段」の一例が、それぞれ、実施の形態における露光制御部105、画像入力部101、動き検出部103、画像統合部104である。ただし、請求の範囲における各構成要素は、これら実施の形態における対応する構成要素だけに限定されるのでなく、その等価物も含まれる。
本発明は、複数の動画像から新たな動画像を生成する画像生成装置として、特に、高速低解像度動画像と低速高解像度動画像とから高速高解像度動画像を生成する画像生成装置、そのような装置が組み込まれた映像機器やシステム、映像合成装置、映像編集装置、画像復元装置、画像復元プログラム等として利用できる。
図1は、従来の画像生成装置の構成を示すブロック図である。 図2(a)および(b)は、従来の画像生成装置における入力画像の時系列を示す図である。 図3は、本発明の実施の形態における画像生成システムのハードウェア構成を示すブロック図である。 図4は、画像生成装置の構成を示す機能ブロック図である。 図5は、画像生成装置の動作を示すフローチャートである。 図6(a)および(b)は、入力画像の時系列の一例を示す図である。 図7(a)〜(c)は、撮像装置の具体例を示す図である。 図8(a)〜(c)は、それぞれ、生成する高速高解像度動画像、入力される高速低解像度動画像および低速高解像度動画像の画素配置の一例を示す図である。 図9(a)〜(c)は、画素値を補正する場合における入射光量と画素値との関係の例を示すグラフである。 図10(a)および(b)は、高速低解像度動画像で求めた動き検出結果と高速高解像度動画像との関係を示す図である。 図11(a)〜(d)は、生成する高速高解像度動画像のフレーム画像の一例を示す図である。 図12(a)〜(d)は、入力される高速低解像度動画像のフレーム画像の一例を示す図である。 図13は、入力される低速高解像度動画像のフレーム画像の一例を示す図である。 図14(a)〜(d)は、信頼度の分布例を示す図である。 図15(a)〜(d)は、生成された動画像のフレーム画像の一例を示す図である。 図16(a)〜(d)は、信頼度を用いないで生成した場合の動画像のフレーム画像の一例を示す図である。 図17(a)〜(e)は、理想的な高速高解像度画像のフレーム画像の一例を示す図である。 図18(a)〜(e)は、高速低解像度画像のフレーム画像の一例を示す図である。 図19(a)および(b)は、短時間露出で撮影した低速高解像度画像のフレーム画像の一例を示す図である。 図20(a)および(b)は、長時間露出で撮影した低速高解像度画像のフレーム画像の一例を示す図である。 図21(a)〜(e)は、短時間露出で生成したフレーム画像の一例を示す図である。 図22(a)〜(e)は、短時間露出で生成したフレーム画像の一例を示す図である。 図23(a)〜(e)は、長時間露出で生成したフレーム画像の一例を示す図である。 図24(a)〜(e)は、長時間露出で生成したフレーム画像の一例を示す図である。 図25(a)および(b)は、フレームの露光期間中の露光量の時間変化を示す図である。 図26(a)〜(c)は、入力画像の露光タイミングと生成画像における仮想的な露光タイミングとの関係を説明する図である。 図27(a)〜(c)は、高速低解像度画像のフレーム画像の一例を示す図である。 図28は、低速高解像度画像のフレーム画像の一例を示す図である。 図29(a)〜(c)は、生成したフレーム画像の一例を示す図である。 図30(a)〜(c)は、高速低解像度画像のフレーム画像の一例を示す図である。 図31は、露光量を変化させた場合の低速高解像度画像のフレーム画像の一例を示す図である。 図32(a)〜(c)は、露光量を変化させた場合の生成したフレーム画像の一例を示す図である。 図33(a)および(b)は、フレームの露光期間中の露光量の時間変化を示す図である。 図34は、生成した画像の信頼度を用いて画像を符号化する圧縮率を変化させる場合の信頼度と圧縮率との関係の一例を示すグラフである。 図35は、カラーの動画像を統合する場合の処理手順を示すフローチャートである。 図36は、領域分割処理の一例を示す図である。 図37は、画像生成システムの具体例を示すブロック図である。 図38は、画像生成システムの具体例を示すブロック図である。
符号の説明
10 撮像装置
20 画像記憶装置
30 画像生成装置
40 表示装置
100 画像生成システム
101 画像入力部
101a 高速画像入力部
101b 低速画像入力部
102 符号化部
103 動き検出部
103a 動き分布算出部
103b 動き信頼度分布算出部
103c センサ入力部
104 画像統合部
104a 統合処理部
104b 拘束制御部
104c 動き拘束指定部
104d 外部モデル拘束部
104e 拘束指定部
105 露光制御部
106a 減光部
106b 照明部
300 カメラ
400 ディスプレイ機器
上記目的を達成するために、本発明に係る画像生成装置は、外部の撮像装置によって同一事象を撮影して得られた第1動画像及び第2動画像から、前記事象を表す新たな動画像を生成する画像生成装置であって、前記第2動画像の解像度は前記第1動画像の解像度よりも高く、かつ前記第2動画像のフレームの露光時間は前記第1動画像のフレーム間隔よりも長く、前記撮像装置を制御することにより、前記第2動画像の1つのフレームの露出期間中の露光量を時間的に変化させる露光制御手段と、前記撮像装置から、前記第1動画像と、前記露光制御手段の制御下で撮影された前記第2動画像とを取得する画像入力手段と、前記取得された第1動画像と第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、前記第2動画像のフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合手段とを備え、前記露光制御手段は、前記第2動画像の1つのフレームの露光期間中に少なくとも1回、前記露光量を低減させる無露光期間を設ける。
上記目的を達成するために、本発明に係る画像生成装置は、外部の撮像装置によって同一事象を撮影して得られた第1動画像及び第2動画像から、前記事象を表す新たな動画像を生成する画像生成装置であって、前記第2動画像の解像度は前記第1動画像の解像度よりも高く、かつ前記第2動画像のフレームの露光時間は前記第1動画像のフレーム間隔よりも長く、前記撮像装置を制御することにより、前記第2動画像の1つのフレームの露出期間中の露光量を時間的に変化させる露光制御手段と、前記撮像装置から、前記第1動画像と、前記露光制御手段の制御下で撮影された前記第2動画像とを取得する画像入力手段と、前記取得された第1動画像と第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、前記第2動画像のフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合手段とを備え、前記露光制御手段は、前記第2動画像の1つのフレームの露光期間中に少なくとも1回、前記第1動画像の無露光期間に同期して前記露光量を低減させる無露光期間を設ける。

Claims (8)

  1. 外部の撮像装置によって同一事象を撮影して得られた第1動画像及び第2動画像から、前記事象を表す新たな動画像を生成する画像生成装置であって、
    前記第2動画像の解像度は前記第1動画像の解像度よりも高く、かつ前記第2動画像のフレームの露光時間は前記第1動画像のフレームの露光時間よりも長く、
    前記撮像装置を制御することにより、前記第2動画像の1つのフレームの露出期間中の露光量を時間的に変化させる露光制御手段と、
    前記撮像装置から、前記第1動画像と、前記露光制御手段の制御下で撮影された前記第2動画像とを取得する画像入力手段と、
    前記取得された第1動画像と第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、前記第2動画像のフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合手段と
    を備えることを特徴とする画像生成装置。
  2. 前記露光制御手段は、前記第2動画像の1つのフレームの露光期間中に少なくとも1回、前記露光量を低減させる無露光期間を設ける
    ことを特徴とする請求項1記載の画像生成装置。
  3. 前記露光制御手段は、さらに、前記撮像装置を制御することにより、前記第1動画像の露光量を、前記第2動画像の無露光期間において低減させる
    ことを特徴とする請求項2記載の画像生成装置。
  4. 前記露光制御手段は、前記第2動画像の1つのフレームの露光期間中に含まれる前記第1動画像の1以上のフレームのそれぞれの露光期間において、前記第2動画像の前記フレームの露光が行われるように、前記第2動画像の露光量を変化させる
    ことを特徴とする請求項1記載の画像生成装置。
  5. 前記撮像装置は、前記第2動画像を撮影する際、被写体からの入射光量を外部からの制御に応じた量低減させる減光手段を備え、
    前記露光制御手段は、前記減光手段を制御することによって、前記露光量を時間的に変化させる
    ことを特徴とする請求項1記載の画像生成装置。
  6. 前記撮像装置は、前記第2動画像を撮影する際、外部からの制御に応じた強さで被写体を照明する照明手段を備え、
    前記露光制御手段は、前記照明手段を制御することによって、前記露光量を時間的に変化させる
    ことを特徴とする請求項1記載の画像生成装置。
  7. 外部の撮像装置によって同一事象を撮影して得られた第1動画像及び第2動画像から、前記事象を表す新たな動画像を生成する画像生成方法であって、
    前記第2動画像の解像度は前記第1動画像の解像度よりも高く、かつ前記第2動画像のフレームの露光時間は前記第1動画像のフレームの露光時間よりも長く、
    前記撮像装置を制御することにより、前記第2動画像の1つのフレームの露出期間中の露光量を時間的に変化させる露光制御ステップと、
    前記撮像装置から、前記第1動画像と、前記露光制御ステップでの制御下で撮影された前記第2動画像とを取得する画像入力ステップと、
    前記取得された第1動画像と第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、前記第2動画像のフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合ステップと
    を含むことを特徴とする画像生成方法。
  8. 複数の動画像から新たな動画像を生成するためのプログラムであって、
    請求項7記載の画像生成方法に含まれるステップをコンピュータに実行させる
    ことを特徴とするプログラム。
JP2007557268A 2006-10-30 2007-10-24 画像生成装置および画像生成方法 Expired - Fee Related JP4215266B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006294698 2006-10-30
JP2006294698 2006-10-30
PCT/JP2007/070750 WO2008053765A1 (ja) 2006-10-30 2007-10-24 画像生成装置および画像生成方法

Publications (2)

Publication Number Publication Date
JP4215266B2 JP4215266B2 (ja) 2009-01-28
JPWO2008053765A1 true JPWO2008053765A1 (ja) 2010-02-25

Family

ID=39344107

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007557268A Expired - Fee Related JP4215266B2 (ja) 2006-10-30 2007-10-24 画像生成装置および画像生成方法

Country Status (4)

Country Link
US (1) US7907183B2 (ja)
JP (1) JP4215266B2 (ja)
CN (1) CN101485192B (ja)
WO (1) WO2008053765A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2059027A4 (en) * 2006-09-14 2012-08-08 Nikon Corp IMAGE PROCESSING DEVICE, ELECTRONIC CAMERA, AND IMAGE PROCESSING PROGRAM
TW200924692A (en) * 2007-12-12 2009-06-16 Altek Corp Micro sensor and its manufacturing method
JP5224804B2 (ja) * 2007-12-27 2013-07-03 三星電子株式会社 撮像装置
JP2010028722A (ja) * 2008-07-24 2010-02-04 Sanyo Electric Co Ltd 撮像装置及び画像処理装置
JP5389049B2 (ja) * 2008-12-16 2014-01-15 パナソニック株式会社 撮像装置、半導体集積回路、および動きベクトル判定方法
US8390698B2 (en) * 2009-04-08 2013-03-05 Panasonic Corporation Image capturing apparatus, reproduction apparatus, image capturing method, and reproduction method
WO2011083555A1 (ja) * 2010-01-07 2011-07-14 パナソニック株式会社 画像処理装置、画像生成システム、方法、およびプログラム
GB201009595D0 (en) * 2010-06-08 2010-07-21 Penny & Giles Aerospace Ltd Flight recorder
US8681234B2 (en) * 2010-09-28 2014-03-25 Sony Computer Entertainment America Llc System and methdod for capturing and displaying still photo and video content
US8374453B2 (en) * 2010-11-10 2013-02-12 Raytheon Company Integrating image frames
JP5725953B2 (ja) * 2011-04-13 2015-05-27 キヤノン株式会社 撮像装置及びその制御方法、並びに情報処理装置
JP2012253531A (ja) * 2011-06-02 2012-12-20 Sony Corp 撮像装置、撮像方法および画像処理装置
WO2012168322A2 (en) * 2011-06-06 2012-12-13 3Shape A/S Dual-resolution 3d scanner
JP5821300B2 (ja) 2011-06-07 2015-11-24 ソニー株式会社 撮像装置及び撮像方法
WO2013021767A1 (ja) * 2011-08-10 2013-02-14 富士フイルム株式会社 動体検出装置及び方法
CN103369227A (zh) * 2012-03-26 2013-10-23 联想(北京)有限公司 一种运动对象的拍照方法及电子设备
EP2677732B1 (en) * 2012-06-22 2019-08-28 Nokia Technologies Oy Method, apparatus and computer program product for capturing video content
RU2013102854A (ru) * 2013-01-30 2014-08-10 ЭлЭсАй Корпорейшн Способ и устройство для повышения кадровой частоты потока изображений с использованием, по меньшей мере, одного потока изображений с более высокой кадровой частотой
US9300869B2 (en) * 2013-10-24 2016-03-29 Fujitsu Limited Reduction of spatial resolution for temporal resolution
US9571720B2 (en) * 2013-12-10 2017-02-14 Olympus Corporation Image processing device, display device, imaging apparatus, image processing method, and program
US10410398B2 (en) * 2015-02-20 2019-09-10 Qualcomm Incorporated Systems and methods for reducing memory bandwidth using low quality tiles
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10419737B2 (en) * 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
JP6540330B2 (ja) * 2015-07-28 2019-07-10 日本電気株式会社 追跡システム、追跡方法および追跡プログラム
US10289951B2 (en) 2016-11-02 2019-05-14 Adobe Inc. Video deblurring using neural networks
CN110035687B (zh) * 2016-11-30 2022-02-11 卡普索影像公司 对使用胶囊相机所撷取的图像进行图像拼接的方法及装置
US11037330B2 (en) 2017-04-08 2021-06-15 Intel Corporation Low rank matrix compression
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
CN109559331A (zh) * 2017-09-27 2019-04-02 九阳股份有限公司 一种基于视频图像的食材管理方法
US10572976B2 (en) * 2017-10-18 2020-02-25 International Business Machines Corporation Enhancing observation resolution using continuous learning
KR102488410B1 (ko) * 2017-11-07 2023-01-16 삼성전자주식회사 복수의 카메라들을 이용하여 영상을 촬영하는 전자 장치와 이의 동작 방법
JP6996353B2 (ja) * 2018-03-06 2022-01-17 トヨタ自動車株式会社 物体認識装置及び車両走行制御システム
US11295427B2 (en) * 2020-02-14 2022-04-05 Pixelworks, Inc. Methods and systems for image processing with multiple image sources
US20220138964A1 (en) * 2020-10-30 2022-05-05 Qualcomm Incorporated Frame processing and/or capture instruction systems and techniques
US11910121B2 (en) * 2021-01-26 2024-02-20 Zf Friedrichshafen Ag Converting dual-context video data to full color video
US20220327718A1 (en) * 2021-04-13 2022-10-13 Qualcomm Incorporated Techniques for enhancing slow motion recording
CN113139949B (zh) * 2021-04-30 2023-04-07 逻腾(杭州)科技有限公司 一种机器人图像模糊度检测方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4244394B2 (ja) 1998-02-17 2009-03-25 富士ゼロックス株式会社 多地点会議システム
JP4039858B2 (ja) 2002-01-09 2008-01-30 株式会社モノリス 画像マッチング方法と装置、および画像符号化方法と装置
US7394484B2 (en) 2002-06-10 2008-07-01 Shimadzu Corporation Photographic apparatus and photographic method using same
JP2004064661A (ja) 2002-07-31 2004-02-26 Shimadzu Corp 撮像装置およびそれを用いた撮影方法
JP5109221B2 (ja) 2002-06-27 2012-12-26 新世代株式会社 ストロボスコープを使った入力システムを備える情報処理装置
JP3877651B2 (ja) * 2002-07-02 2007-02-07 株式会社モノリス 画像処理方法と装置
JP4453976B2 (ja) * 2004-03-30 2010-04-21 正彦 谷内田 画像生成装置、画像データ列生成システム、及び画像伝送システム
US20050219642A1 (en) 2004-03-30 2005-10-06 Masahiko Yachida Imaging system, image data stream creation apparatus, image generation apparatus, image data stream generation apparatus, and image data stream generation system
WO2006137253A1 (ja) * 2005-06-22 2006-12-28 Matsushita Electric Industrial Co., Ltd. 画像生成装置および画像生成方法
JP4215267B2 (ja) * 2006-10-19 2009-01-28 パナソニック株式会社 画像生成装置および画像生成方法

Also Published As

Publication number Publication date
US7907183B2 (en) 2011-03-15
CN101485192B (zh) 2011-05-18
JP4215266B2 (ja) 2009-01-28
CN101485192A (zh) 2009-07-15
WO2008053765A8 (ja) 2008-07-24
WO2008053765A1 (ja) 2008-05-08
US20090167909A1 (en) 2009-07-02

Similar Documents

Publication Publication Date Title
JP4215266B2 (ja) 画像生成装置および画像生成方法
JP3934151B2 (ja) 画像生成装置および画像生成方法
JP4215267B2 (ja) 画像生成装置および画像生成方法
JP4745388B2 (ja) 二重経路画像シーケンス安定化
JP4775700B2 (ja) 画像処理装置及び画像処理方法
US9092875B2 (en) Motion estimation apparatus, depth estimation apparatus, and motion estimation method
JP5017419B2 (ja) 画像生成装置、画像生成方法、およびプログラム
JP4806476B2 (ja) 画像処理装置、画像生成システム、方法、およびプログラム
JP5096645B1 (ja) 画像生成装置、画像生成システム、方法、およびプログラム
JP4420906B2 (ja) 撮像装置
JP2013165487A (ja) 画像処理装置、撮像装置、およびプログラム
JP6037224B2 (ja) 画像処理装置、撮像装置、およびプログラム
JP2007329596A (ja) 画像生成装置および画像生成方法
JP2007515845A (ja) ローカル予測誤差に基づく映像位置合わせ
JP6508926B2 (ja) 撮像装置および撮像装置の制御方法
JP2018033080A (ja) 画像処理装置、画像処理方法およびプログラム
US11206344B2 (en) Image pickup apparatus and storage medium
JP2009118434A (ja) ぶれ補正装置及び撮像装置
JP4052348B2 (ja) 画像処理装置、及び画像処理方法
JP2012085205A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP2009153046A (ja) ぶれ補正装置及び方法並びに撮像装置
Quevedo et al. Approach to super-resolution through the concept of multicamera imaging
JP7409604B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP2023112383A (ja) 焦点検出装置および撮像装置

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081007

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081031

R150 Certificate of patent or registration of utility model

Ref document number: 4215266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131114

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees