JP3934151B2 - 画像生成装置および画像生成方法 - Google Patents

画像生成装置および画像生成方法 Download PDF

Info

Publication number
JP3934151B2
JP3934151B2 JP2006526470A JP2006526470A JP3934151B2 JP 3934151 B2 JP3934151 B2 JP 3934151B2 JP 2006526470 A JP2006526470 A JP 2006526470A JP 2006526470 A JP2006526470 A JP 2006526470A JP 3934151 B2 JP3934151 B2 JP 3934151B2
Authority
JP
Japan
Prior art keywords
image
moving image
resolution
speed
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006526470A
Other languages
English (en)
Other versions
JPWO2006137253A1 (ja
Inventor
太郎 今川
健夫 吾妻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3934151B2 publication Critical patent/JP3934151B2/ja
Publication of JPWO2006137253A1 publication Critical patent/JPWO2006137253A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T3/16
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Description

本発明は、動画像を生成する画像生成装置に関し、特に、複数の動画像から夫々の優れた特性を併せ持つ新たな動画像を生成する画像生成装置に関する。
デジタル撮像デバイスの進展に伴い、高空間解像度の静止画像を比較的低コストで撮影することが可能となってきている。しかしながら、このような高空間解像度の静止画と同等の空間解像度を保ちながら滑らかに動く動画像(例えば、30フレーム/秒程度)や更に高速度の撮影を実現するには課題がある。
これは、単位時間あたりに得られる画像の情報量が莫大になるために、撮像デバイス内での画像情報の転送速度が不足することや、並列に画像情報を転送するなどの特殊な撮像デバイスを必要とする為、撮影装置のコストが増加したり、撮像デバイスの特性の調整が別途必要になることに因る。
従来の時空間解像度(時間および空間の解像度)の高い画像を得る画像生成方法としては、高速低解像度カメラと低速高解像度カメラとの映像を用い、動画像のフレーム間の対応点検出を用いてモーフィングを行うものがある(例えば、特許文献1参照)。図45は、特許文献1に記載された従来の画像生成方法を説明する図である。なお、本明細書において、撮像能力または動画像の性質に関して、「高速」(または、「低速」)とは、フレームレートが相対的に大きい(または、小さい)ことを意味し、「高解像度」(または、「低解像度」)とは、空間解像度が相対的に高い(または、低い)ことを意味する。
図45において、高速低解像度カメラA01と低速高解像度カメラA02は同じ対象を同じ画角で同期して撮影している。カメラA01とカメラA02の撮影画像の関係を図46に示す。図46は、2つのカメラA01およびA02が撮影したフレームを時間の順に並べており、フレームB01とB02はカメラA02で得られた画像を表し、フレームB11〜B15は、カメラ01で得られた画像を表している。ここで空間解像度の違いは画像の大きさで表現しており、フレームB11〜B15は、フレームB01とB02に比べて画素数が少なく、空間解像度が低い。一方、カメラA01はカメラA02よりも撮影のフレームレートが高く、カメラA02が1フレーム撮影する間にカメラA01は4フレーム撮影している。また、カメラA02のフレーム撮影の時間に同期してカメラA01のフレーム撮影を行っている(フレームB01とフレームB11およびフレームB02とフレームB15は同じタイミングで撮影)。以下の例では、フレームB23の位置(フレームB13の撮影時間に相当)に相当する高解像度画像の中間フレーム画像の生成方法について説明する。
このようにして撮影したフレーム画像について、一次マッチング部A03はカメラA01の高速撮影画像において隣りあう各フレーム間の画素の対応関係を求める。ここで、対応関係とは、あるフレーム画像内の各画素が映す対象の部位が他方のフレーム画像内のどの画素位置に写っているかの関係である。次に、隣り合う高速画像間の対応関係をつなぎ合わせることで、生成したいフレームB23の時刻に位置する高速カメラ画像B13と、高速画像と低速画像を同期して撮影しているフレームB11との画素間の対応関係を求める。
次に、二次マッチング部A04は、高速画像と低速画像を同期して撮影しているフレームB01とフレームB11との画素の位置関係、フレームB13とフレームB23との画素の位置関係、および、一次マッチング部A03で求めたフレームB11とフレームB13との対応関係をつなぎ合わせることで、フレームB01とフレームB23との画素の対応関係を決定する。
次に、画像生成部A05は、フレームB01とフレームB23との画素の対応関係を用いて、フレームB01の画素値を用いてフレームB23の画素値を決定し、高解像中間フレーム画像B23を生成する。同様の手順で他の中間フレームを生成することで、高解像度かつ高速の映像を生成する。
また、非特許文献1や非特許文献2などでも同様に、高速低解像度カメラと低速高解像度カメラとの映像を用い、高速カメラの映像から動き検出を行い、その動きに合わせて低速高解像度動画像に対してモーフィングを行うことで高解像度の中間フレーム画像を生成している。
特開2003−203237号公報(図13) Toru MATSUNOBU,et al.,"Generation of High Resolution Video Using Morphing",Technical report of IEICE,PRMU2004−178 Kiyotaka Watanabe,et al.,"Generation of High Resolution Video Sequence from Two Video Sequences with Different Spatio−temporal Frequencies",情報科学技術レターズ(FIT2004),Vol.3,No.LI−004,2004
しかしながら、上記従来の技術では、高速画像において隣り合うフレーム間で対応関係を正確に求めることや、動き検出を正確に行えることが前提となっており、対応関係が正確に求まらない場合や、動き検出が行えない場合には、生成する画像が大きく劣化したり、低解像度画像を単に拡大した画像になってしまうというという課題を有している。一般的に、画像中の動物体の動きが複雑な場合や照明状態が変化する場合やオクルージョンが発生する場合やアパーチャ問題が発生する場合などには、フレーム間の対応点を求めることや動き検出を全ての画素について正確に求めることは困難である。
具体的には、高解像度画像が存在するフレームにおいてその高解像度画像そのものを用いて鮮明な画像が生成され、その後、低解像度画像しか存在しないフレームが繰り返されるにつれて生成される画像の劣化が顕著となり、再び高解像度画像が存在するフレームにおいて突然に劣化のない鮮明な画像が生成される。このようなフレーム間での画像の鮮明さの変動は、人間の知覚に違和感を与える。
そこで、本発明は、上記従来の課題を解決するものであり、対応点検出や動き検出が正確に行えない画像領域も含めて複数の動画像を統合した新たな動画像を生成することができる画像生成装置およびその方法を提供することを目的とする。
上記目的を達成するために、本発明に係る画像生成装置は、第1動画像と、解像度が前記第1動画像の解像度よりも高くかつ一つのフレームが前記第1動画像の複数のフレーム期間にわたる露出により得られる第2動画像とを受け付ける画像入力手段と、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームとそのフレームの露出期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させるように生成する画像統合手段とを備える。
このような構成によって、前記画像入力手段が、例えば、高速フレームレートで低解像度の第1動画像と低速フレームレートで高解像度の第2動画像を受け付けた場合には、前記画像統合手段は、前記第1動画像と同じフレームレートで前記第2動画像と同じ解像度の動画像を前記新たな動画像として生成することができる。つまり、入力された複数の動画像の夫々の優れた特性を併せ持つ新たな動画像が生成される。
しかも、前記新たな動画像は、前記第2動画像のフレームとそのフレームの露出期間に対応する前記新たな動画像の複数のフレームの合計との誤差が減少するように生成されるので、前記第2動画像の一つのフレームが含んでいる画像情報が、生成される新たな動画像の複数のフレームに分散して反映される結果、フレーム間での画像の鮮明さの変動が平滑化され、知覚上の違和感が少ない動画像が得られる。
なお、本発明は、このような画像生成装置として実現できるだけでなく、画像生成方法、その方法をコンピュータに実行させるプログラム、そのプログラムを記録したCD−ROM等のコンピュータ読み取り可能な記録媒体等としても実現することができる。
本発明の画像生成装置によれば、動画像中において必ずしも動きや対応点が正確に求まらない画像領域を含んでいる場合にでも、その画像の時空間解像度を動画像全体で向上させた新たな動画像が生成される。たとえば、高速低解像度動画像と低速高解像度動画像とから、夫々の優れた特性を併せ持つ高速高解像度動画像が確実に生成される。
また、フレーム間での画像の鮮明さの変動を平準化して、知覚上の違和感の少ない動画像を得ることができる。
(第1の実施の形態)
本発明の第1の実施形態は、同一事象を撮影して得られた複数の動画像から、前記事象を表す新たな動画像を生成する画像生成装置であって、第1動画像と、前記第1動画像と同一の事象を撮影し、解像度が前記第1動画像の解像度よりも高く、かつ各々のフレームが前記第1動画像の1フレーム時間よりも長時間の露光によって得られる第2動画像とを受け付ける画像入力手段と、前記第1動画像と前記第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、そのフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合手段とを備える。
このような構成によって、前記画像入力手段が、例えば、高速フレームレートで低解像度の第1動画像と低速フレームレートで高解像度の第2動画像を受け付けた場合には、前記画像統合手段は、前記第1動画像と同じフレームレートで前記第2動画像と同じ解像度の動画像を前記新たな動画像として生成することができる。つまり、入力された複数の動画像の夫々の優れた特性を併せ持つ新たな動画像が生成される。
なお、前記第2動画像の各々のフレームは前記第1動画像の1フレーム時間よりも長時間の露光によって得られるので、第2動画像に、移動物体の移動軌跡のような動き情報が含まれることとなり、その動き情報を用いて、より動き精度の高い新たな動画像を生成することができる。
つまり、前記新たな動画像は、前記第2動画像のフレームとそのフレームの露出期間に対応する前記新たな動画像の複数のフレームの合計との誤差が減少するように生成されるので、前記第2動画像の一つのフレームに含まれる画像情報が、生成される新たな動画像の複数のフレームに分散して反映される結果、フレーム間での画像の鮮明さの変動が平滑化され、知覚上の違和感が少ない動画像が得られる。
ここで、前記第2動画像のフレームをフレーム間の開放露光により得ることとすれば、前記変動の平滑化は一層促進され、より好ましい動画像を得ることができる。
また、前記画像生成装置は、さらに、生成される新たな動画像の画素値が、時空間的に隣り合う画素の画素値の連続性から満たすべき拘束条件を指定する拘束手段を備え、前記画像統合手段は、前記指定された前記拘束条件が維持されるように前記新たな動画像を生成してもよい。
このような構成によれば、時間的、空間的な連続性が維持された新たな動画像を生成できるので、そのような連続性を強く示す自然界の映像に特に適した生成を行うことができる。
また、前記画像生成装置は、さらに、前記画像入力手段が受け付けた複数の動画像の少なくとも1つから対象物の動きを検出する動き検出手段と、生成される新たな動画像の画素値が、前記動き検出結果に基づいて満たすべき拘束条件を指定する拘束手段とを備え、前記画像統合手段は、指定された前記拘束条件が維持されるように前記新たな動画像を生成してもよい。
これによって、動き検出の手法による補間を用いて前記新たな動画像を生成できる。
ここで、前記動き検出手段は、前記動き検出の信頼度を算出し、前記画像統合手段は、前記動き検出手段によって算出された信頼度が高い画像領域については前記動き検出結果に基づく拘束条件を用いて新たな画像を生成し、前記信頼度が低い画像領域については動き拘束以外の予め定められた拘束条件を用いて前記新たな動画像を生成してもよい。
ここで、前記動き検出手段は、前記動画像を構成する各画像を分割したブロック単位で動きを検出し、ブロック同士の画素値の差の2乗和の符号を逆にした値を前記信頼度として算出し、前記画像統合手段は、前記信頼度が予め定めた値よりも大きいブロックを信頼度の高い画像領域とし、前記信頼度が予め定めた値よりも小さいブロックを信頼度の低い画像領域として、前記新たな動画像を生成してもよい。
これによって、動き検出の信頼度が低い領域については、予め定めた外部モデル拘束条件に従って画像が統合されるので、本発明によれば、従来において対応点検出や動き検出が正確に行えない画像領域も含めて画像が統合され得る。
このような構成によって、前記画像入力手段は、例えば、高速フレームレートで低解像度の第1動画像と低速フレームレートで高解像度の第2動画像を受け付け、前記画像統合手段は、前記第1動画像と同じフレームレートで前記第2動画像と同じ解像度の動画像を前記新たな動画像として生成することができる。つまり、入力された複数の動画像の夫々の優れた特性を併せ持つ新たな動画像が生成される。
また、入力される複数の動画像がカラーの動画像である場合には、前記画像統合手段は、前記第1動画像から色差情報を抽出し、前記第1動画像から取得された輝度情報と前記第2動画像とから中間的な新たな動画像を生成し、生成した中間的な動画像に前記色差情報を付加することによって、最終的な前記新たな動画像を生成するのが好ましい。これによって、例えば、RGBの各色ごとに新たな動画像を生成する処理に比べ、少ない処理量でカラーの高速高解像度動画像を生成することができる。
また、前記動き検出手段はさらに、前記対象物を撮像する撮像装置の姿勢を検出する姿勢センサからの信号を受け付ける姿勢センサ入力部を有し、前記姿勢センサ入力部が受け付けた信号を用いて前記動きを検出してもよい。これによって、より精度の高い動き検出が確保されるので、より動き精度の高い新たな動画像を生成することができる。
また、前記画像統合手段は、前記複数の動画像の少なくとも1つについて画像の時間的な変化量を算出し、算出した変化量が予め定めた値を超える時間範囲について、前記新たな動画像を生成してもよい。これによって、必要な時間区間だけにおいて画像の統合処理を行うだけで済むとともに、統合処理をする時間区間とそうでない時間区間とが滑らかに接合され、その不連続性が知覚されにくくなる。
また、前記画像統合手段はさらに、生成した新たな動画像の信頼性を示す値を算出し、算出した値を前記新たな動画像とともに出力するのが好ましい。これによって、信頼性を利用した動画像の後処理が可能となる。例えば、これら2つの情報を取得した符号化手段が、信頼性の低い画像を高い圧縮率で符号化し、信頼性の高い画像を低い圧縮率で符号化することで、全体として、符号化に伴う情報の欠損が少ない高圧縮率の符号化が可能となる。
さらに、本発明に係る画像生成装置は、複数の動画像から新たな動画像を生成する画像生成装置であって、同一の対象物を撮像して得られる時空間解像度または時空間位相の異なる複数の動画像の入力を受け付ける画像入力手段と、前記画像入力手段が受け付けた複数の動画像の少なくとも1つから前記対象物の動きを検出するとともに、当該動き検出の信頼度を算出する動き検出手段と、生成される新たな動画像の画素値が満たすべき条件である外部モデル拘束条件を指定する外部モデル拘束手段と、前記動き検出手段が検出した信頼度に基づいて、信頼度の高い画像領域については前記動き検出手段による動き検出の結果を用いて新たな画像を生成し、信頼度の低い画像領域については前記外部モデル拘束手段が指定する外部モデル拘束条件を用いて新たな画像を生成することにより、前記画像入力手段が受け付けた複数の動画像を統合して新たな動画像を生成する画像統合手段とを備えるとしてもよい。
ここで、前記画像入力手段は、前記時空間位相が異なる複数の動画像として、原動画像の本来のフレーム画像の複数の部分をそれぞれ異なる時刻について表す複数種類のフィールド画像のうち、一種類のフィールド画像を複数のフレームについて連ねてなる異なる複数の動画像を受け付け、前記画像統合手段は、前記原動画像のフィールドレートと同等のフレームレートを有し、かつ前記本来のフレーム画像と同等の解像度を有するフレーム画像から構成される新たな動画像を生成するとしてもよく、また、前記フィールド画像の露出時間が、時間的に隣接するフィールド間の時間間隔よりも長いとしてもよい。
これによって、動き検出の信頼度が低い領域については、予め定めた外部モデル拘束条件に従って画像が統合されるので、本発明によれば、従来において対応点検出や動き検出が正確に行えない画像領域も含めて画像が統合され得る。
以下、図面を参照しながら本発明の第1の実施の形態に係る画像生成システムについて詳細に説明する。
図1は、本発明の実施の形態に係る画像生成システムのハードウェア構成を示すブロック図である。
画像生成システム100は、同一の対象についての複数の動画像(ここでは、高速低解像度動画像および低速高解像度動画像)から時空間解像度の高い新たな動画像(ここでは、高速高解像度動画像)を生成するシステムであり、撮像装置10と、画像記憶装置20と、画像生成装置30と、表示装置40とを備えている。撮像装置10は、被写体を撮影し、異なる2種類の時空間解像度で動画像(ここでは、同一の対象についての高速低解像度動画像および低速高解像度動画像)を得るカメラ等である。画像記憶装置20は、撮像装置10で撮像された動画像を一時的に記憶するメモリ等である。画像生成装置30は、画像記憶装置20に記憶された動画像を読み出し、読み出した複数の動画像から、時空間解像度を高めた新たな動画像を生成する装置である。表示装置40は、画像生成装置30で生成された新たな動画像を表示する表示装置である。なお、画像生成装置30は、専用回路等のハードウェアによって実現してもよいし、汎用の計算機における画像処理プログラム等のソフトウェアによって実現してもよい。
図2は、図1に示された画像生成システム100における画像生成装置30の内部構成を示す機能ブロック図である。この画像生成装置30は、画像入力部101と、動き検出部103と、画像統合部104とを備える。
画像入力部101は、同一の対象物を撮像して得られる時空間解像度または時空間位相の異なる複数の動画像の入力を受け付けるインターフェース等であり、ここでは、高速(高速フレームレート)かつ低空間解像度で撮影した動画像(高速低解像度動画像)の入力を受け付ける(あるいは、取得する)高速画像入力部101aと、高速画像入力部101aと同じ対象を低速(低速フレームレート)かつ高空間解像度で撮影した動画像(低速高解像度動画像)の入力を受け付ける(あるいは、取得する)低速画像入力部101bとを有する。このように、高速画像入力部101aに入力された画像と低速画像入力部101bに入力された画像は、時空間解像度は異なるが、同じ対象を撮影した画像である。
動き検出部103は、画像入力部101に入力される画像を生成する撮像装置10の動きを検出するセンサ(撮像装置10に備えられた加速度センサ等)からの信号を取得するセンサ入力部103cと、画像入力部101に入力された画像または/およびセンサ入力部103cに入力された動き信号に基づいて、入力画像中の画像(つまり、撮像の対象物)の動き検出を各フレームの画像全体において行う動き分布算出部103aと、動き分布算出部103aにおける動き検出の信頼度を各フレームの画像全体において算出する動き信頼度分布算出部103bとを有する。
画像統合部104は、画像入力部101に入力された複数の動画像のうち、信頼度の高い画像領域については動き検出部103による動き検出の結果を用いて新たな動画像を生成し、信頼度の低い領域については予め定められた一定の拘束条件を用いて複数の動画像を統合する処理部であり、統合処理部104aと、拘束制御部104bと、動き拘束指定部104cと、外部モデル拘束部104dと、拘束指定部104eとを有する。
動き拘束指定部104cは、動き分布算出部103aによる動き検出の結果を用いて、生成する高速高解像度動画像の各画素値が満たすべき拘束条件(以下、動き検出の結果に依存して指定される拘束条件を「動き拘束条件」という。)を指定する処理部である。
外部モデル拘束部104dは、生成する高速高解像度動画像の各画素値が動き分布算出部103aによる動き検出の結果とは別に満たすべき拘束条件(以下、動き検出の結果に依存することなく指定される拘束条件を「外部モデル拘束条件」という。)を指定する。
拘束制御部104bは、動き分布算出部103aで算出された動き検出の結果と動き信頼度分布算出部103bで算出された信頼度とを用いて、生成する高速高解像度動画像中の各フレーム画像中の各位置において、動き拘束条件と外部モデル拘束条件とをそれぞれ有効にする度合いを決定し、その度合いを拘束指定部104eに通知する。
拘束指定部104eは、拘束制御部104bが決定した動き拘束条件と外部モデル拘束条件との有効度合いに基づいて、動き拘束指定部104cが指定する動き拘束条件と外部モデル拘束部104dが指定する外部モデル拘束条件とを統合した拘束条件、つまり、生成する高速高解像度動画像の各画素値が満たすべき拘束条件を指定する。
統合処理部104aは、拘束指定部104eによって指定される拘束条件に従って、高速画像入力部101aに入力された高速画像と低速画像入力部101bに入力された低速画像とを統合し、高速高解像度動画像を生成する。
符号化部102は、統合処理部104aによって生成された画像を圧縮符号化して出力する。
なお、本実施の形態における「フレーム」には、プログレッシブ方式におけるフレームだけでなく、インターレース方式における偶数フィールドおよび奇数フィールドが含まれる。
次に、以上のように構成された画像生成装置30が実行する処理について説明する。図3は、画像生成装置30の実行する処理のフローチャートである。
ステップ601では、高速画像入力部101aが高速低解像度動画像の入力を受け付け、低速画像入力部101bが同一対象についての低速高解像度動画像の入力を受け付ける。以降、説明に用いる画像は輝度画像を用いて説明する。
高速画像入力部101aに入力される高速低解像度動画像と低速画像入力部101bに入力される低速高解像度動画像の関係を図4に示す。図4は、それら2つの画像の連続したフレーム画像を時間の順に並べており、フレーム201と202は低速高解像の画像を表し、フレーム211〜215は高速低解像の画像を表している。
本図において、空間解像度の違いは画像の大きさで表現されている。フレーム211〜215は、フレーム201と202に比べて画素数が少なく空間解像度が低い。一方、フレームレートについては、高速画像入力部101aは、低速画像入力部101bに比べ、撮影のフレームレートが高く、ここでは、低速画像入力部101bの1フレーム間隔で高速画像入力部101aは4フレーム撮影している。また、フレーム201と202の画像の時間方向の幅は露出時間を表している。低速画像入力部101bに入力される画像はフレームレートが低い分、高速画像入力部101aに入力される画像に比べて長い露出が可能となる。図4では、低速高解像度動画像のフレーム201は、高速低解像度動画像の4フレーム間隔分の露出が行われている。
なお、高速画像入力部101aに入力されるフレームと低速画像入力部101bに入力されるフレームとの撮影タイミングは、時間の相対関係が既知であればよく、必ずしも同時に撮影される必要は無い(つまり、撮像タイミングにおける位相が異なっていてもよい)。また、長時間露出を行うことで、高解像度の画像中においても移動物体の移動軌跡のような動き情報を取得することが可能となる。高解像度画像から得た動き情報と矛盾のない動画像を後述する画像の統合処理において生成することで、時空間解像度の高い動画像を生成することが可能となる。
ここで、撮像装置10の具体例、つまり、2種類の画像を取得する撮影手段の例を示す。2種類の画像は、図5(a)のように、特性の異なる2種類のカメラを同一画角になるようにハーフミラーを用いて配置して撮影しても良いし、図5(b)のように、1つのカメラ内において特性の異なる2種類の撮像素子を同一画角になるようにハーフミラーやプリズムを用いて配置して撮影しても良いし、図5(c)のように特性の異なる2種類の画像を同時に撮影する撮像素子を用いても良い。
次に、図6を用いて、目的とする高速高解像度動画像の画素値(ここでは、輝度値)と、高速画像入力部101aに入力される高速低解像度動画像および低速画像入力部101bに入力される低速高解像度動画像の画素値(ここでは、輝度値)との関係を説明する。この関係は、高速高解像度動画像の各画素が満たすべき外部モデル拘束条件として画像生成に使用する。
ここで、各画像の画素値は撮像時の入射光量に比例し、比例定数も共通であるとする。図6(a)は、目的とする高速高解像度動画像の各フレームの画素の配置を示したものである。説明の便宜のため、高速高解像度動画像の一部を取り出して説明する。図6(a)は、縦(Y軸)方向3画素、横(X軸)方向3画素、4フレームの画素の配置を表している。画素位置(X,Y,t)の画素の値をHH(X,Y,t)とする。ここでXとYは0,1,2の値の範囲とし、tは0,1,2,3の値の範囲とする。
同様に、図6(b)は、図6(a)と同じ画角を同じ時間に撮影した高速低解像度動画像の画素の配置を示す。ここで、高速低解像度動画像の画素位置(XL,YL,t)の画素値をHL(XL,YL,t)と表す。低解像度画像と高解像度画像ではx、y方向の画素数が異なるため、低解像度画像のx、y座標値をそれぞれXL,YLと表して高解像度画像の場合と区別する。ここでは高解像度画像のx、y方向それぞれ3画素からなる9画素分の領域が低解像度画像の1画素に相当する関係にあり、画素値の関係は数1のようになる。
Figure 0003934151
同様に、図6(c)は、図6(a)と同じ画角を同じ時間に撮影した低速高解像度動画像の画素の配置を示す。ここで、低速高解像度動画像の画素位置(x,y,t)の画素値をLH(x,y,t)と表す。
高速画像と低速画像では時間方向のフレーム数が異なるため、低速画像のフレーム番号をtと表して高速画像の場合と区別する。ここでは高速画像の4フレーム分の間隔が低速画像の1フレーム間隔に相当する関係にあり、画素値の関係は数2のようになる。
Figure 0003934151
ここで、G(t)は、時刻tの撮影強度を表し、撮像素子の感度や撮影時の絞りの時間的変化による画素値の変化倍率を示している。撮像素子の感度や撮影時の絞りに時間的変化が無い場合には、G(t)=1.0である。
なお、上記の例では時間tを離散的に表現しているが、連続的な時間変化と対応付ける場合には、(数3)の関係式を用いる。(数1)、(数2)のHH(x,y,t)を(数3)でHHcont(x,y,tcont)に置き換えることで、時間的に連続した入力に対する劣化過程を表現することが出来る。
Figure 0003934151
(数3)において、Δtは生成する高速高解像度画像のフレーム画像の仮想的な露出時間に相当し、tcontは連続した時間、HHcont(x,y,tcont)は時間的に連続な画像、Exp(tcont)は高速高解像度画像のフレーム画像の仮想的な露出の時間変化を表している。
図4のように、高速画像の露出時間に対して低速画像の露出時間を長くすることで、長い時間にわたる動きの軌跡情報を蓄積することが可能となり、高速高解像度動画像を生成する上で動きの生じている部分の時空間解像度の改善に効果がある。
以上の例では、画素値は撮像時の入射光量に比例する場合(図7(a))で説明したが、γ補正等により比例しない場合(図7(b))や比例定数が画素によって異なる場合には、別途、画像が撮影されたときの撮像素子の入出力特性(入出力関係)を逆に対応付けて利用することで、入射光に対して同一の比例関係を持つ値に画素値を補正し、数1や数2の関係を満たすことができる。例えば、図7(c)のような画素値と補正値の対応関係を用いることで図7(b)のようにして得られた画素値を補正し、図7(a)のようにして得られた画素値と同様に処理することができる。
また、上述の説明では、画素値として輝度値を用いて説明したが、各画素にR,G,Bのカラー値が存在する場合にもR,G,Bの個々の値について輝度値と同様の関係が得られる。
他の外部モデル拘束としては、時空間的に隣り合う画素との画素値の連続性や滑らかさがある。画素値の連続性を用いる場合、
Figure 0003934151
のように高速高解像度動画像の隣り合う画素間の輝度値の差の二乗和Qsを考える。画素値の滑らかさを用いる場合には、
Figure 0003934151
のように高速高解像度動画像の隣り合う画素間の輝度値の二階差分の二乗和Qsを考える。ここで、数4、数5において、XmaxとYmaxとtmaxはそれぞれx方向画素番号、y方向画素番号、フレーム番号の最大値を示す。また、λs(x,y,t)は、拘束条件の時空間的分布を指定する係数であり、後述のステップ604において動きの信頼度を用いて決定する。
このように、外部モデル拘束条件は、生成する高速高解像度動画像に対する評価関数として表現することができる。その評価関数の値(評価値)を下げることが上記外部モデル拘束を生成する高速高解像度動画像に加えることに対応する。
他の外部モデル拘束として、エッジの時空間的連続性を用いても良い。この場合、例えば
Figure 0003934151
に示すように、時間的に隣り合うフレーム間で対応する位置のエッジの向きの変化は少ないという拘束や、
Figure 0003934151
のように、同じ向きのエッジは、そのエッジの方向に空間的に連続して存在するという拘束である。ここで数6、数7のedge(x,y,t,i)は、動画像中の(x,y,t)の位置に存在するi番目の向きのエッジの強度を示す。iはエッジの方向の種類を示し、iは0からimaxまでの整数値をとるものとする。また、数7の(i、i)はi番目のエッジの向きの方向を表すベクトルを示す。
また、u(x,y,t)、v(x,y,t)、は画像中の(x、y、t)の位置における動きベクトルのx方向成分とy方向成分を示す。エッジの検出は方位依存性を有するGaborフィルタなどのエッジ検出フィルタの出力を用いたり、数8のように微分演算でエッジの方向と強度を得た後、必要に応じてエッジの方向を離散化して用いることで実現できる。
Figure 0003934151
は高速高解像度動画像HHの座標(x,y,t)におけるエッジの向きと強度を2次元ベクトルとして表しており、ベクトルの向きがエッジの向きに対応し、ベクトルの大きさがエッジの強度に対応する。
ここで、λte(x,y,t)やλse(x,y,t)は、λs(x,y,t)と同様に、拘束条件の時空間的分布を指定する係数であり、後述のステップ604において動きの信頼度を用いて決定する。
また、他の拘束条件として、生成する動画像が表現し得る自由度を予め定めた動画像群の主成分に限定してもよい。例えば、動画像を構成する各フレームの各画素の輝度値HH(x,y,t)を独立な要素とし、動画像を1つのデータ点と考え、予め定めた同じフレーム数・画素数の動画像群に対して主成分分析を行い、主成分を優先して動画像を生成するものである。この場合、非主成分のベクトルをNPC(x,y,t)とし、生成する動画像をHH(x,y,t)に対して、非主成分NPCと生成する動画像HHとの内積を拘束条件とする。この場合、拘束条件は、
Figure 0003934151
のQpcようになる。NPCは1種類ではなく複数個用意しても良いし、入力画像によってNPCの種類を切り換えても良い。この場合、入力画像と高解像度時の主成分との関係を予め学習しておき、この結果を用いてNPCの選択を行えばよい。例えば、異なる3種類の高速高解像度の動画像群1・2・3を学習用の動画像として用意する。その動画像群それぞれから非主成分のベクトルNPC1・NPC2・NPC3を求める。別途、上記動画像群1・2・3のそれぞれから数1や数2の関係式を用いて高速低解像度動画像群HL1・HL2・HL3と高速高解像度動画像群HH1・HH2・HH3とを求める。ここで学習すべき関係は、画像群HL1・HH1と画像群HL2・HH2と画像群HL3・HH3の3つの画像群と上記3種類の非主成分NPC1・NPC2・NPC3との対応関係である。対応関係の学習方法は任意の手法を用いてよく、画像群ごとに高速低解像度動画像HLと高速高解像度動画像HHの平均画像の組を求めておき、平均画像の組と非主成分の種類との対応関係を保持しておく(学習)。新たな入力画像HL・HHの組に対して平均画像の組との差を求め、差の最も小さい平均画像の組に対応する非主成分を入力画像の復元処理に用いるようにする。平均画像と非主成分の種類との関係を保持する替わりに、高速低解像度動画像HLと高速高解像度動画像HHを入力とし、それらHLとHHに対応する非主成分の種類を出力とした入出力関係をニューラルネットワーク等の学習手法を用いて求めておき、学習後には入力画像HL・HHの組をニューラルネットワークに入力して、出力として得られる種類の非主成分を拘束条件として用いるようにしてもよい。
ここで、λpc(x,y,t)も上記λs(x,y,t)と同様に拘束条件の時空間的分布を指定する係数で後述のステップ604において、動きの信頼度を用いて決定する。
次に、ステップ602では、動き検出部103が、高速低解像度動画像から画像中の動きとその動きの信頼度を算出する。ここで、高速画像入力部101aから得た動画像の各フレーム画像の各位置において、動き分布算出部103aが被写体の動きの向きと大きさを求め(動き検出)、動きの向きと大きさの時空間的分布を求める。また、動き信頼度分布算出部103bは、動き検出の信頼度の時空間的分布conf(x,y,t)を併せて求める。この場合、動き検出の信頼度とは、信頼度が高い程、動き検出の結果が尤もらしく、信頼度が低い場合には動き検出の結果に誤りがあることを意味する。隣り合う2フレーム画像間の画像上の各位置での動きの求め方については、例えば、P.ANANDAN,"A Computational Framework and an Algorithm for the Measurement of Visual Motion",IJCV,2,283−310(1989)で用いられる方法や動画像符号化で一般的に用いられる動き検出手法や、画像を用いた移動体追跡などで用いられる特徴点追跡手法などを用いることができる。また、画像全体の大域的動き(アフィン動きなど)検出の一般的手法や、Lihi Zelkik−Manor、“Multi−body Segmentation:Revisinting Motion Consistency”、ECCV(2002)などの手法を用いて複数の領域ごとの動き検出を行い、各画素位置での動きとして用いてもよい。信頼度の求め方については、上記P.ANANDANの文献に記載の方法を用いてもよく、ブロックマッチングを用いた動き検出の場合には、数10のように、動きに対応するブロック同士の画素値の差の2乗和を差の2乗和が取り得る最大値SSDmaxから引いた値、つまりブロック同士の画素値の差の2乗和の符号を逆にした値Conf(x,y,t)を信頼度として用いても良い。また、画像の大域的動き検出や領域ごとの動き検出を用いた場合にも、各画素位置の動きの始点近傍領域と終点近傍領域との画素値の差の2乗和を2乗和が取り得る最大値SSDmaxから引いた値conf(x,y,t)を信頼度として用いても良い。
Figure 0003934151
数10において、位置(x'、y'、t+1)は、動き検出の結果として得られた画素位置(x、y、t)の移動先に相当する画素位置である。また、数10のΣはブロックマッチングで用いるブロック領域内での加算を表す。
なお、上記説明では、高速画像入力部101aから得た画像を用いて動き検出と信頼度算出を行ったが、同様の動き検出処理を低速画像入力部101bから得た画像に対して動き検出と信頼度算出を行っても良い。
また、撮影機器の姿勢の変化を検出するセンサの情報(センサ入力部103cに入力されてくる信号)を入力として用いても良い。この場合、撮像装置10が加速度や角加速度センサを備え、センサ入力部103cが加速度の積分値として速度や角速度を得ることで、動き分布算出部103aは、センサ入力部103cに入力された情報から、手ブレなどのようなカメラの姿勢の変化による画像全体の動きの情報を得ることができる。例えば、画像入力部101としてカメラを用いた場合、そのカメラに水平方向と垂直方向の角加速度センサを備えることで、そのセンサの出力から水平方向と垂直方向の加速度を各時刻における姿勢計測値として得ることができる。加速度値を時間で積分すると各時刻の角速度を算出することができる。カメラが時刻tに水平方向にωhの角速度を持ち、垂直方向にωvの角速度も持つ場合、カメラの角速度はカメラの向きの起因する撮像素子上(撮影画像上)の位置(x,y)における時刻tにおける像の2次元的動き(u,v)と一意に対応付けることができる。カメラの角速度と撮像素子上での像の動きとの対応関係は、カメラの光学系(レンズなど)の特性(焦点距離やレンズひずみなど)と撮像素子との配置や撮像素子の画素間隔とから一般的に決定できる。実際に算出するには、光学系の特性と撮像素子の配置や画素間隔から幾何学的・光学的に算出して対応関係を得るか、あらかじめ対応関係をテーブルとして保持しておき、カメラの角速度ωh・ωvから、撮像素子上(x,y)の像の速度(u,v)を参照するようにしてもよい。
このようなセンサを用いた動き情報も画像から得た動き検出の結果と合せて用いても良い。この場合、動き分布算出部103aは、画像全体の動き検出には主にセンサの情報を用い、画像内での対象の動きは画像を用いた動き検出の結果を使用すればよい。
次に、ステップ603では、動き拘束指定部104cが動き検出部103が求めた動き検出結果と、目的とする高速高解像度動画像との関係を指定する。図8を用いて低解像度画像で求めた動き検出結果と高速高解像度動画像との関係を説明する。図8(a)と図8(b)は、それぞれ、高速画像の隣り合うフレーム画像(フレーム番号tとt+1)を表している。簡単のため、低解像度画像において3画素×3画素の領域で説明する。ここで、低解像度画像の1画素を更に3画素×3画素に分けた領域が高解像度画像の画素を表している。なお、図8では、説明に必要な高解像度画素のみ図示している。ここで、動き検出部103が動き検出を行った結果として、図8(a)の太線501の低解像度画素位置が、図8(b)の画素位置502に対応している(枠501の画像が枠502に移動した)とする。ここで、上述のような動き検出の手法では一般的に画素サイズより小さい単位で動きの向きや大きさを算出することができる。従って、低解像度画像の動き検出の結果を用いて、図8(b)のように低解像度画素位置に一致しない高解像度画像の画素単位の動きを算出し、高速高解像度の画素に対する数11の関係を得ることができる。
この動き検出の結果を用いて、太線の枠内(501,502)の高速高解像度動画像の各画素値について
Figure 0003934151
の関係が成り立つと想定する。
ここで、u(x,y,t)とv(x,y,t)は、検出結果を表しており、図8(a)の太線の黒枠(501)内の位置(x,y,t)が図8(b)の太線の黒枠(502)内の位置に移動する動きのうちx方向の移動量をu(x,y,t)、y方向の移動量をv(x,y,t)と表している。上記の例では、動き検出を高速低解像度動画像で行ったが、低速高解像度動画像において動き検出を行った結果を同様に用いてもよい。高解像度画像を用いた場合は、動き検出を求めるフレームの時間間隔は増すが、フレーム内での対応付けの位置精度は向上する。
次に、ステップ604では、拘束制御部104bが拘束条件の強度の時空間的分布を決定し、拘束指定部104eが生成する高速高解像度動画像に対する総合的な拘束条件を指定する。以下詳細を説明する。拘束指定部104eは、上記数1、数2で示す高速高解像度動画像と高速画像・低速画像との画素値の関係と、上記数11で示す動き検出結果と高速高解像度動画像との関係と、上記数4、数5、数6、数7、数9などで示す外部モデル拘束とを用いて、目的とする高速高解像度動画像に対する総合的な拘束条件J(HH)を指定する。数12に総合的な拘束条件Jの例を示す。
Figure 0003934151
数12において、右辺の第1項は高速高解像度動画像から数1の関係式を使って作り出した高速低解像度動画像HL'と高速画像入力部101aに実際に入力される高速低解像
度動画像HLとの差(対応する画素値との差の2乗和)を表す拘束で、第2項目は高速高解像度動画像から数2の関係式を使って作り出した低速高解像度動画像LH'と、低速画
像入力部101bに実際に入力される低速高解像度動画像LHとの差(対応する画素値との差の2乗和)を表す拘束である。第1項目の拘束と第2項目の拘束は、生成した画像と撮影した画像との輝度値の関係が、上記数1と数2の関係をできるだけ満たすようにするものであり、撮影画像と生成画像との間で輝度値の矛盾を生じにくくする条件である。
数12の右辺の第3項目は外部モデル拘束条件Qsであり数4や数5の条件を用いる場合には生成した画像において時空間的に隣り合う画素の輝度値は近い値を持ちやすいような拘束である。従って、ノイズのように輝度値が時空間的に小刻みに変化するような画像の生成を抑制する。数12の右辺の第4項目は動き検出結果に基づいた拘束条件Qmであり、動き検出を行った結果と生成画像との間に矛盾が生じにくいように動き検出の結果を用いた拘束の例を数13に示す。
Figure 0003934151
数13では高速高解像度動画像における隣り合うフレーム間(tとt+1)の動きu,vを用いて拘束を構成しているが、1フレーム以上離れたフレーム間での動き検出結果u',v'を用いて数14のように離れたフレームとの間の動き検出を行った結果を用いて拘束条件を設定してもよい。また、数13と数14のような拘束を併用しても良い。
Figure 0003934151
異なるフレーム間隔での動き検出を用いることで、遅い動きなどのように少ないフレーム間隔では検出しにくい動きなどを検出し、画像生成に反映させることが可能となる。
数12の右辺の第5項目はエッジの時間的連続性を示す拘束条件であり、数12の右辺の第6項目はエッジの空間的連続性を示す拘束条件、数12の右辺の第7項目は生成画像から非主成分を抑制する拘束条件である。
ここで、λs、λm、λse、λte、λpcは拘束条件の強度の時空間的分布を決定する係数であり拘束制御部104bが決定する。ステップ602で動き信頼度分布算出部103bが求めた動き検出の信頼度をconf(x,y,t)(>0)とし、値が大きいと動き検出の信頼度が高いとする。
λs、λm、λse、λte、λpcの決め方の例として、αを予め定めた定数としてconf(x,y,t)>αを満たす場合にλm(x,y,t)=1.0のように動き拘束を有効にし、他の拘束条件を座標(x,y,t)において予め定めた小さな値ε(<1.0)に設定し、conf(x,y,t)<=αではλm(x,y,t)=0.0、他のλを1.0とする。つまり、動き検出部103において、動画像を構成する各画像を分割したブロック単位で動きを検出するに際し、ブロック同士の画素値の差の2乗和を前記2乗和の取り得る値の最大値から引いた値を動き検出の信頼度conf(x,y,t)として算出し、画像統合部104において、その差が予め定めた値αよりも大きいブロックを信頼度の高い画像領域とし、その差が予め定めた値α以下のブロックを信頼度の低い画像領域として、信頼度の高い画像領域については動き検出の結果を用いて新たな画像を生成し、信頼度の低い画像領域については外部モデル拘束条件を用いて新たな画像を生成する。
他のλの決め方として、ある単調増加関数g(x)を用いてλm(x,y,t)=g(conf(x,y,t))、他のλの(x,y,t)における値をg(conf_max)−g(conf(x,y,t))とするように、連続的に定義してもよい。ここで、conf_maxは信頼度が取り得る値の最大値である。このように、動き検出の信頼度が高い時には動き拘束に重きを置き、信頼度が低い時には外部モデル拘束の割合を増すことで、動き検出が正確に行えない位置においても、画像が劣化することを抑え、時空間解像度を高めることが可能となる。また、上記では外部モデル拘束として複数の拘束を同時に用いたが、同様に他の拘束を更に加えて用いても良いし、一部の拘束のみを用いても本発明の効果は得られる。
次に、ステップ605では、統合処理部104aが拘束条件Jを最小にする高速高解像度動画像を求める。拘束条件Jを最小にする高速高解像度動画像の求め方としては、例えば、拘束条件Jを高速高解像度動画像の各画素値で微分した式が0とおいた数15の方程式を解いて求めることや、最急勾配法などを用いて繰り返し法を用いて求めても良い。最後に、ステップ606では、統合処理部104aは、生成した高速高解像の画像を出力する。
Figure 0003934151
より具体的な入力画像の組と出力画像の例を図9から図13を用いて説明する。ここでは説明を容易にするために、6画素×6画素×4フレームの動画像を用いて説明する。これはより大きな画像やフレーム数の大きい動画像の一部とみなすことができる。ここで、図9は、撮影の対象を仮に高速高解像度で撮影できた場合の画像を示す。図9の映像は本来撮影により取得できないが、説明の為に示す。図9(a)から(d)は4フレームを時間の順番に並べており、静止している被写体1401と移動している被写体1402が写っている。このような被写体に対して、高速低解像度動画像と低速高解像度動画像を得る(ステップ601)。このような被写体の高速低解像度動画像(画素数が縦横それぞれ1/3の場合)の例を図10に示す。図10(a)から(d)は、図9の(a)から(d)の撮影時間に対応するフレームである。ここで、黒の画素と白の画素との中間の画素値の画素は左下向きの斜線で示している。フレーム数は図9と同じであるが、空間解像度が図9よりも低い。同様に、このような被写体の低速高解像度動画像(フレーム数1の場合)の例を図11に示している。空間解像度は図9と同じであるが、図9の(a)から(d)のフレームの間を露出しているため、被写体1402が移動軌跡として撮影されている。
次に、高速低解像度動画像から、動き検出部103は、画像中の被写体の動きと動きの信頼度を求める(ステップ602)。図9の画像がより大きな画像の一部を示しているため、動き検出自体はより大きな画像全体で行った結果のうち、図9の画像領域に関する結果を得ても良い。
図12に信頼度の分布の例を示す。図12(a)から(d)は、図9の(a)から(d)の撮影時間に対応する。図12において、右下向きの斜線部分が動き検出の信頼度が低い場所を示し、他の領域(白および黒の画素)は動き検出の信頼度が高い場所を示している。ここで白と黒の画素の表示は被写体との関係を表しており、信頼度では区別はない。また、静止している被写体や背景に対する動き検出の結果は動きの量が0という扱いになる。図9の被写体のような場合、2つの被写体1401と1402が接近するあたりでは正確な動き検出が困難となる。拘束制御部104bは、動き検出結果を用いた拘束の設定(ステップ603)と動きの信頼度の低い位置に対する外部拘束条件とから総合的な拘束条件を設定し(ステップ604)、その拘束条件を用いて統合処理部104aは高速高解像度動画像を生成・出力する(ステップ605、606)。
図13に生成した画像の例を示す。図13(a)から(d)は、図9(a)から(d)の撮影時間に対応する。2つの被写体が接近するフレーム図13(b)、(c)では画素値が中間的な値になっているものの、本来撮影では得られない図9の映像に近い映像が得られる。図14には動き検出の結果のみを用い、動きの信頼度や外部拘束条件を用いない場合の生成画像の例を示す。動き検出が正確に行えない図14(b)、(c)のフレームの画像の右上において正確な画像の生成が行えていない。図13の結果では、動き検出が図13(b)、(c)の右上の領域で正確に行えていないことから、外部拘束条件により、画像の他の位置や他のフレームとの画素値の連続性(数4、5など)やエッジの連続性(数6、7など)や動画像の主成分の傾向(数9など)を用いることで、統合処理部104aは高速高解像度動画像として望ましい画像を生成することができる。
次に、低速高解像度動画像の露出時間を高速低解像度動画像のフレーム間隔よりも長く撮影する効果を図15〜図22の画像を用いて説明する。
図15は、撮影の対象を仮に高速高解像度で撮影できた場合の画像を示す。図15の映像は本来撮影により取得できないが、説明の為に示す。図15(a)〜(e)は時間的に連続する5フレームを時間の順番に並べており、移動している被写体A1が写っている。このような被写体に対して、撮影した高速低解像度動画像を図16に、低速高解像度動画像を図17と図18に示す。図16の(a)〜(e)は、ぞれぞれ図15の(a)〜(e)の時間に対応するフレーム画像を示している。図16は低解像度の画像を高解像度画像と同じ大きさに図示しているため、解像度の低さが画素の荒さとして現れている。ここで、低速高解像度画像は高速低解像度画像の4分の1のフレームレートとし、図17と図18の(a)と(b)は図15の(a)と(e)の時間に露出を開始したフレーム画像に対応している。図17は従来例のように低速高解像度画像の露出時間を短くしている場合のフレーム画像を示している。図18は本願発明で示すように、低速高解像度画像の露出時間を高速低解像度画像のフレームレートよりも長くして撮影したフレーム画像を示している。
このようにして撮影した画像を用いて前記の手続きで生成した画像の例を図19〜図22に示す。ここで、図19〜図22の(a)〜(e)は、ぞれぞれ図15(a)〜(e)の時間に対応するフレーム画像を示す。また、図20〜図22において斜線部分は被写体A1の輝度と背景の輝度との中間輝度の領域を表している。図19と図20は図16と図17の入力画像を用い、図21と図22は図16と図18の入力画像を用いて生成した画像の例である。図19は動き情報を用いずに生成した画像の例を示し、図20は動き情報を用いて生成した画像の例を示している。図19、図20の(a)と(e)は図17の入力画像と同じタイミングのため鮮明な画像が得られる。一方、図19(b)から(d)では動き情報を用いないため、高速低解像度画像図16(b)から(d)と同等の低解像度画像となっている。
また、図20(b)から(d)では低速高解像度画像を撮影したフレームから離れるに従い、画像の不鮮明さが増し、次の低速高解像度画像の撮影フレームに達したときに再び鮮明な状態に戻る。これは、低解像度高速画像から得た動き情報を利用して(b)から(d)の生成画像の空間解像度を向上させる必要があるものの、低解像度画像から動き検出を行うため、動き検出の精度が低くなることと、動き検出では不可避な検出誤差が生じることに起因する。これらの動き検出誤差がフレーム毎に蓄積するため鮮明度が次第に低下する。このように、図17のような入力を用いた場合、動き検出の情報が得られないか、不正確であると、(b)から(d)において生成画像の鮮明度が次第に低下すると同時に、生成画像の鮮明度が周期的に(前記の例では4フレーム周期)大きく変動し、見辛い画像になり得る。低速高解像度画像のフレーム間隔が長いほどこの傾向は顕著となる。動き検出の精度が高解像度画像の解像度の精度で正確に得られれば上記のような問題は生じないが、画像中の被写体形状の複雑な変化やオクルージョン、照明変動等により、現実的には低解像度画像からの高精度の動き検出は困難である。
図21は動き情報を用いずに生成した画像の例を示し、図22は動き情報を用いて生成した画像の例を示している。図21では図15や図17の画像に比べて多少鮮明さは低下するものの、図20(d)のような大きな鮮明度の低下が生じない。また、時間的な鮮明度の変化が抑えられており、鮮明度の時間変化による見辛さは軽減できる。更に、図22では動きの情報を用いるため、図21に比べて更に鮮明度が向上する。
このように従来の画像生成方法では、高速低解像度画像も低速高解像度画像とも露出時間を短くし、動きブレを抑えることで、個々の画像を鮮明に撮影していたが、生成した画像の画質を安定させ、突発的な画像の変化を適切に生成画像に反映させる上では必ずしも望ましいとはいえなかった。
本願発明の画像生成手法ではこのような従来手法とは異なり、生成する高速高解像度画像の鮮明さの向上とフレーム間の鮮明度の変化を抑えるために動きブレが生じうる長時間撮影により得た低速高解像度画像を用いてが画像を生成することを特長とする。
これにより、動き検出が行われない場合にでもフレーム毎の画質の変動を抑えるとともに、画像の動き情報を加味することで画像の鮮明さを向上させることが可能となる。更に、動き検出の信頼度を用いて信頼度の高い動き情報のみ用いることで、誤った動き情報による画像の劣化を抑えることが可能になる。
なお、長時間露出の露出時間は低速画像のフレーム間で開放すると効果を得やすい。実際には、画素値の読み取り等により、露出終了と次フレームの露出開始までには未露出時間が生じうる。このような場合にでも可能な範囲で露出を長くしておくことで本願発明の効果を得ることが可能である。
なお、長時間撮影を用いて画像を生成したか否かは、高解像度でかつ突発的な画像の変化が図17(a)と(b)の間で生じた場合に生成画像にその変化が含まれるか否かで判断することができる。
具体的な一例として、次のような状況において、長時間露光による特有の効果を得ることができる。
被写体が暗くてかつ画像内で移動している場合、従来例のように低速高解像度画像を短時間の露出で撮影すると、ノイズの多い画像が得られる。高速高解像度画像を生成する場合にも前記ノイズが影響し、生成画質が大きく低下する。これは、高解像度画像の撮像素子の受光部面積は一般的に小さいため、露出が短いと光量不足となり、撮像素子自身が発生する熱雑音が目立つことによる。
そこで、本発明のように低速高解像度画像において長時間露出を行うと、高解像度画像の撮像素子の受光部で十分な光量が蓄積でき、撮像素子自身が発生する熱雑音の影響が相対的に小さい画像を得ることができる。この画像と、高速低解像度画像(受光部の面積が高解像度画像に比べて相対的に大きくできるため、熱雑音の影響を受けにくい)で得た、輝度や動きの情報を用いて高速高解像度画像を生成することで、被写体が暗くてかつ移動している場合でもノイズの少ない画像を得やすいという特有の効果が得られる。
上記の例では、画像統合部104は、生成画像を出力するのみであるが、生成画像の出力と併せて画像生成の信頼度を出力しても良い。画像生成の信頼度γは生成した画像が正確に高速高解像化されている度合いを予測する値である。γの決め方としては、以下の数16に示される動きの信頼度の総和や、
Figure 0003934151
有効な拘束条件の数Nと求めるべき動画像の総画素数M(=フレーム数×1フレーム画像の画素数)との比率N/Mなどを用いることができる。ここでN=Nh+Nl+Nλ×Cであり、Nhは高速画像の総画素数(フレーム数×1フレーム画像の画素数)、Nlは低速画像の総画素数、Nλは外部拘束条件を有効にする時空間位置(x,y,t)の総数、Cは外部拘束の種類の数とする。なお、数15などの方程式を連立1次元方程式として解く場合には、Cline,A.K., Moler,C.B.,Stewart, G.W.and Wilkinson,J.H.,”An Estimate for the Condition Number of a Matrix”,SIAM J.Num. Anal.16(1979),368−375.などに記載されている解の算出計算の安定性を示す条件数を信頼度として用いることができる。動きの信頼度の高い場合、動き拘束を用いた生成画像の信頼度も高いことが期待できる。また、生成する動画像の総画素数に対して有効な拘束条件が多い場合には、解としての生成画像を安定して得ることができ、生成画像の信頼度も高いことが期待できる。同様に、上記条件数が小さい場合にも解の誤差が小さいことが期待できる為、生成画像の信頼度が高いと期待できる。
このように、生成画像の信頼度を出力することで、出力した動画像に対してMPEGなどの圧縮符号化を行う際に、信頼度の低い場合には圧縮率を高め、逆に、信頼度の高い場合には圧縮率を低く設定することが可能となり、適切な圧縮率の設定が可能となる。例えば生成画像の信頼度γと符号化の圧縮率δとの関係を図23のように単調増加の関係に設定し、生成した動画像の信頼度γの値に対応する圧縮率δで符号化を行う。生成画像の信頼度γが低い場合には生成画像が誤差を含みうるため、圧縮率を高くしても実質的に情報の欠損があまり生じないことが期待されるため、効果的にデータ量を削減できる。ここで圧縮率とは、もとの画像のデータ量に対する符号化後のデータ量の割合で、圧縮率が高い(大きい値)ほど、符号化後のデータ量は小さくなり、復号化した際の画質は低下する。
同様に、MPEGの場合などでは、前記信頼度の高いフレームを優先的にIピクチャなどのフレーム内符号化の対象とし、他のフレームをフレーム間符号化の対象とすることで、動画像の再生時の速送り再生や一次停止時などの画質を向上させることが可能となる。例えば、前記生成画像の信頼度をフレーム毎に求めておきγ(t)と置く。tはフレーム時刻である。連続する複数のフレームの中から、フレーム内符号化を行うフレームを選択する際にγ(t)が予め定めた閾値γthより大きいフレームの中から選択したり、予め定めた連続フレーム区間の中で最もγ(t)の大きいフレームを選択する。
なお、出力動画像を符号化する処理の有無に関わらず本発明の効果は得られる。
また、上記の例では、画素値として単一の輝度のみを前提に説明したが、輝度に対する上記の処理をRGBカラー表現のRとGとBの各成分について個々に同じ処理を行って高速高解像度動画像を得ることで、カラー画像に対しても高速高解像度動画像を生成することが可能である。また、より簡易に色情報を扱う方法としては、低速画像を輝度と色差に分解し、輝度画像のみを上記の処理で高速高解像度化し、色差情報は補完拡大して前記高速高解像度輝度画像に付加することでも、効果は得られる。この場合、画像の情報の主成分は輝度に含まれる為、他の色差の情報が補完拡大された場合であっても、両者を合わせることで、入力した画像に比べて、高速高解像度化した動画像を得ることが可能となり、RGB独立に処理する場合に比べて処理量を削減することが可能となる。
このようなカラー画像に対する処理の手順を図24に示す。ステップ2101では高速低解像度動画像を輝度画像と色差画像に分離し、続いて、ステップ2102で、前記輝度画像と低速高解像度動画像の輝度画像とを用いて図3の手順に基づいて高速高解像度動画像を生成する。ステップ2103では、前記色差画像を高解像度画像と同じ画素数に補間拡大する。ステップ2104では、前記生成輝度画像と前記補間拡大した色差画像とを合成して高速高解像度のカラー画像を生成する。このように、画像統合部104が、高速低解像度動画像から色差情報を抽出し、高速低解像度動画像の輝度情報と低速高解像度動画像とから中間的な新たな動画像を生成し、生成した中間的な動画像に色差情報を付加することによって、最終的な新たな動画像を生成することで、カラーの動画像を少ない処理量で統合することができる。
以上のように、本実施の形態における画像生成システム100によれば、動き検出部103が求めた動きの信頼度に応じて、拘束制御部104bが外部モデル拘束条件と動き拘束条件とを有効にする度合いを決定し、前記拘束条件を用いて高速画像と低速画像を統合することにより、動き検出が行えない場合や、動き検出の精度が低い画像領域においても高速高解像の動画を得ることができる。
なお、本実施の形態では、動画像全体を一括で処理する例を説明したが、動画像を時空間的に複数の領域に分割し、前記各領域において上記と同様の処理を行って高速高解像の部分動画像を生成した後、生成した前記各部分動画像を時空間的に接合し、動画像全体の高速高解像の動画像を得ても良い。このように時空間的に分割処理を行う事で、画素数の多い画像やフレーム数の多い動画像を行う際に必要となる計算処理量やメモリ量を抑制する事が可能となる。特に、時間方向に動画像を分割することで、過去に入力された複数フレームを一括処理することによる画像生成の時間遅れを短縮することも可能になる。
また、上記のように分割処理する際に、隣接する時空間領域が分割境界近傍において、重複するように、各領域を設定してもよい。図25に空間的に重複を持たせて領域分割をした例を示す。図25では画像を空間的に重複領域を持たせて領域701〜704の4領域に分割している。個々の領域に相当する動画像を生成した後に、重複部分の画素値は重複する各領域の画素値を重み付け加算平均を行うことで、滑らかな接合を行うことができる。また、時間方向に重複を持たせて図25と同様に領域分割しても良い。このように、重複領域を持たせることで、領域分割処理において隣接する領域間での処理結果の不連続性を抑制する事ができる。
なお、このような重複を許す分割処理において、重複領域の大きさは、予め定めておく。重複領域の大きさを大きくすることで、処理領域間での処理結果の不連続性を低減する効果が増す。重複領域の大きさを小さくすると重複によって増加する計算量を抑えることが可能となる。
また、上記のように領域分割する際の時間方向の領域境界としては、予め動画像のフレーム間の画像の変化を算出し、フレーム間の画像の変化が予め定めた基準より大きいフレーム間に時間的な領域境界を設定しても良い。例えば、隣り合うフレーム画像の差として数17のような値SSD(t)を定義し、SSD(t)>thを満たす場合に、時刻tのフレームと時刻t+1のフレームとの間を処理の境界とし、時刻t以前のシーケンスと時刻t+1以降のシーケンスの処理を分けて行う。
Figure 0003934151
ここで、I(x,y,t)は時刻tのフレーム画像中の位置(x,y)における輝度を示し、thは予め定めた閾値である。また、閾値thを基準として処理の区切りを決定する替わりに、処理の区切りを設けたい時間領域のシーケンスにおいて前記SSD(t)が最大になる時刻tを処理の区切りとしても良い。このようにすることで、時間的に隣接する領域間の処理結果の不連続性がフレーム間の画像の変化に対して相対的に小さくなる事で不連続性が知覚されにくくなるという効果が期待できる。
なお、上記の例では、高速低解像度画像のフレームレートと同じフレームレートかつ低速高解像度画像と同じ画素数の画像を生成する例を示したが、同様の処理を用いて、高速低解像度画像のフレームレートよりもさらに高いフレームレートの画像や、低速高解像度画像よりもさらに画素数が多い画像を生成することも可能である。
例えば、高速低解像度画像のフレームレートのn倍(例えば2倍)のフレームレートの画像を生成する場合には、数1と数2に代えて、数18と数19を用いて同様の処理を行えばよい。
Figure 0003934151
Figure 0003934151
ここで、x、y、tは生成される画像のxy座標とフレーム番号を表し、tは低速高解像度画像のフレーム番号、x、y、tHLは高速低解像度画像のxy座標とフレーム番号を表している。
数18では、数1と同様にHH画像を空間方向(xy方向)に加算し、さらには時間方向にも2フレーム加算して高速低解像度画像の画素値が得られることを示している。数19では数2と比べてフレーム加算数が2倍になっている。
動き検出については、高速低解像度画像で動き検出を行った結果得られる動きのxy方向の大きさと動き検出の信頼度u(x,y,tHL)、v(x,y,tHL)、及びconf(x,y,tHL)を用いて、u(x,y,t)、v(x,y,t)、conf(x,y,t)を生成する。
ここで、u(x,y,t)、v(x,y,t)、及びconf(x,y,t)は、それぞれu(x,y,tHL)、v(x,y,tHL)、及びconf(x,y,tHL)を時間方向にn倍(例えば2倍)に拡大し、空間方向にm倍(例えば3倍)に拡大する時空間補間拡大によって算出する。
特に、u(x,y,t)、v(x,y,t)の値が画素数で表現される場合は、u(x,y,tHL)、v(x,y,tHL)を時空間補間拡大して得た値をm/n倍して用いるとよい。これは、フレーム間隔が1/n倍になるため、被写体の動きについて等速運動を仮定すると動きの大きさも1/n倍になることと、1フレームの画素数がxy方向それぞれm倍になるため、同じ大きさの動きを表現するための値がm倍になるためである。
また、低速高解像度画像の画素数の、縦横ともにn’倍(例えば2倍)の画素数の画像を生成する場合には、数1と数2に代えて、数20と数21を用いて同様の処理を行えばよい。
Figure 0003934151
Figure 0003934151
ここで、x、yは生成される画像の画素のxy座標を示し、xLHとyLHは低速高解像度画像の画素のxy座標を示し、x,yは高速低解像度画像の画素のxy座標を示す。数20では数1と比べてxy方向の画素の加算数がそれぞれ2倍になっている。数21では数2と同様の時間方向の加算に加え、xy方向の加算により低速高解像度の画素値が得られることを示している。
動き検出については、高速低解像度画像で動き検出を行った結果得られる動きのxy方向の大きさと動き検出の信頼度u(x,y,t)、v(x,y,t)、conf(x,y,t)を用いて、u(x,y,t)、v(x,y,t)、conf(x,y,t)を生成する。
ここで、conf(x,y,t)、u(x,y,t)、及びv(x,y,t)は、それぞれconf(x,y,t)、u(x,y,t)、及びv(x,y,t)を空間方向にn’×m倍に拡大する空間補間拡大によって算出する。
特に、u(x,y,t)、v(x,y,t)の値が画素数で表現される場合は、u(x,y,t)、v(x,y,t)を空間補間拡大して得た値をn’×m倍して用いるとよい。これは、1フレームの画素数がxy方向それぞれn’×m倍になるため、同じ大きさの動きを表現するための値がn’×m倍になるためである。
また、上記の数18、数19を用いた処理と、数20、数21を用いた処理とを組み合わせることで、高速低解像度画像のフレームレートよりも高いフレームレートでかつ、低速高解像度画像よりも大きい画素数の画像を生成することも、容易である。
以上、本発明に係る画像生成装置について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。実施の形態に対して当業者が思いつく変形を施して得られる形態も本発明に含まれる。
また、本発明の画像生成装置が行う画像生成処理の一部または全部は、専用の機器で行わせるようにしてもよいし、コンピュータ端末装置や、基地局等に配置される通信機器や、スタンドアロンのコンピュータに内蔵されるCPUが画像生成処理プログラムを実行することによって、画像生成処理を行うようにしてもよい。
また、図1に示された画像生成システム100の構成のうち、表示装置40を除いた構成を用いて、図26に示すようなカメラ300として、つまり、単体の装置として本発明を実現してもよい。
さらに、図26に示されたカメラ300に表示装置40を付加することにより、動画像録画・再生機能付きのカメラとして実現しても良い。
また、図2に示された画像生成システム100の構成のうち、撮像装置10を除いた構成を用いて、図27に示すようにテレビなどのディスプレイ機器400として本発明を実現しても良い。この場合、あらかじめ録画してある動画像の時空間解像度を向上させて表示することが可能になる。
(第2の実施の形態)
本発明の第2の実施形態は、前述した画像生成装置を時空間位相が異なる複数の動画像に適用する一例であって、前記画像入力手段は、時空間位相が異なる複数の動画像として、原動画像の本来のフレーム画像の複数の部分をそれぞれ異なる時刻について表す複数種類のフィールド画像のうち、一種類のフィールド画像を複数のフレームについて連ねてなる異なる複数の動画像を受け付け、前記画像統合手段は、前記原動画像のフィールドレートと同等のフレームレートを有し、かつ前記本来のフレーム画像と同等の解像度を有するフレーム画像から構成される新たな動画像を生成する。
これにより、本来のフレーム画像に比べて解像度が低いフィールド画像を第1の実施の形態で説明した処理によって統合することによって、本来のフレーム画像と同等の解像度を持つフレーム画像をフィールドの時間レートで含む、高解像度かつ高速な新たな動画像を得ることができる。
また、前記フィールド画像の露出時間を、時間的に隣接するフィールド間の時間間隔よりも長く取るように撮影することにより、より多くの情報量を得ることができる。
以下、図面を参照しながら本発明の第2の実施の形態に係る画像生成システムについて詳細に説明する。
図28に第2の実施形態における画像生成装置の構成を示す。基本的な構成は第1の実施形態と同じであるが、画像入力部101が、同一の対象物を撮像するマルチインタレース画像入力部101cから構成される点で異なる。
マルチインタレース画像入力部101cは、1フレームの画像を1対nインタレース(nは2以上の整数)画像として得るもので、撮像画素位置と撮影タイミングの異なるn種類のフィールド画像(時空間位相の異なる複数の動画像)を入力する。
図29、22、23、24、25を用いて異なるフィールド画像の撮影方法の例について説明する。図29と図30は、n=3の場合の各フィールド画像の一部分の撮影タイミングを表している。図の横軸の番号がフィールドの番号を表しており撮影時刻に対応する。図の縦軸は画像の縦軸(水平ライン数)を表している。iは0以上の任意の整数で水平ラインの画像中での位置を表している。
図中の矩形は各画素位置での露出期間を示しており、n=3の場合、撮影されるライン位置と撮影タイミングの異なる3種類のフィールド画像のそれぞれを白色の矩形、格子模様の矩形、斜線の矩形で表現している。この場合、1フレームの画像を異なる水平ライン位置に分けて異なるタイミングで撮影し複数のフィールド画像を得る。各フィールド画像の横方向、つまり各ラインは同時に撮影される。
ここで、各フィールド画像の露出時間は必ずしも隣り合うフィールド間の時間間隔よりも短い(図30)必要はなく図29のように長く行っても良い。このように長時間の露出を行った場合には、被写体の輝度変化の情報も取得することが可能となり、前記情報を活用した高解像度画像を生成することが可能となる。
図31、図32には、n=4の場合の4種類のフィールド画像(白色矩形、格子模様の矩形、斜線の矩形、縦縞の矩形)の撮影タイミングを示している。図31と図32とでは各ラインの撮影順序が異なる。図31のように隣り合うラインを順次撮影する必要は必ずしもなく、図32のように撮影されるラインが時空間的に分散して配置されている方が望ましい。
図33はn=4の場合に画像の横方向(図中のX軸方向)の位置についても撮影位置と撮影タイミングを変えた場合の各フィールド画像の撮影位置(各矩形は画素位置を表す)と撮影タイミング(矩形の模様の違い)を表している。図において4種類の画素の撮影タイミングは図31、図32と同様に時間的に異なり、撮影画素が画像の縦方向(図中のY軸方向)および横方向の何れにも時間的に分散されるように定められる。
上記のようなマルチインタレース画像を入力する場合、異なるフィールドは異なるタイミングで画素値を得ることができるため、通常のプログレッシブ撮影方法などと同じ画素読み出し速度でも、より多くの画素からなる画像の入力が可能となる。
次に、上記の画像入力(n=3)を用いた場合の入力画素値(ここでは、輝度値)と高速高解像度画像の画素値との関係を数22〜数24に示す。第1の実施の形態の数1と数2と同様に数22〜数24の関係は、高速高解像度動画像の各画素が満たすべき外部モデル拘束条件として画像生成に使用される。
Figure 0003934151
Figure 0003934151
Figure 0003934151
ここで、HH(X,Y,t)は第1の実施形態と同様に高速高解像度画像の画素位置(X,Y,t)における画素値を表す。ここで、高速高解像度画像の画素数は全フィールド画像の画素数の和(=1種類のフィールド画像の画素数×n)であり、高速高解像度画像のフレーム間隔は時間的に隣り合うフィールド画像の時間間隔とする。
図34に図29、図30に対応する高速高解像度画像の各フレームの画素配置の例を示す。図34において白色の矩形が各フレームの画素位置を示す。MI1(X,Y,t1)は第1フィールド画像の画素位置(X,Y,t1)の画素値を表し、数22では3フィールド分露出していることを表している。MI2(X,Y,t1)、MI3(X,Y,t1)についても同様である。
ここで、各画像の画素値は撮像時の入射光量に比例し、比例定数も共通であるとしている。比例しない場合の補正は第1の実施形態と同様である。また、R、G、Bのカラー値も輝度値と同様に扱うことが可能である。画像を入力した後の処理は第1の実施形態と同様である。
図35を用いて本実施形態における動作を説明する。主な動作は第一の実施形態と同様であるが、最初の画像入力のステップ2701において画素位置および撮影タイミングの異なるn種類のインタレース画像を読み込む。ここで、被写体(言い換えれば実際に生成されるべき高速高解像度の画像)の例を図36に示す。図36では(a)から(f)まで時間順に12画素×12画素で6フレームの画像を表しており、図中には静止している黒色の矩形2801と右下方向に移動している黒色の矩形2802が存在する。
図37、図38、図39に、図29に示されるn=3の場合の撮影方法を用いて、図36に示される被写体を撮影した場合に得られるインタレース画像の例を示す。図37は図29の白色の矩形の撮影位置と撮影タイミングで図36の被写体を撮影した結果であり、離れた画素位置は空白で間を空けて図示される。画素数は縦が4画素、横12画素で、図37(a)は図36の第1フレームから第3フレームの間を写した結果であり、黒色の矩形の移動によるぶれた位置の画素は斜線で示している。同様に図37(b)は第4フレームから第6フレームの間を写した結果である。
図37と同様に、図38は図29の格子模様の矩形の撮影位置と撮影タイミングで得られる2枚のフィールド画像を示し、図39は図29の斜線の矩形の撮影位置と撮影タイミングで得られる2枚のフィールド画像を示している。
次に、ステップ2702では図38、図39、図40の画像から、必要に応じて補間処理を行い、未撮影の位置やタイミングの画素値を求めることによって、高速高解像度画像を得る。
図29の撮影方法では高速高解像度画像の3フレーム分の時間露出を行っているために、未撮影時間は存在しないが、図30のような撮影方法を用いた場合には、未撮影位置や未撮影タイミングが存在する。
図30の撮影方法を用いた場合に得られるインタレース画像の例を、図42、図43、図44に示す。図37、図38、図39に示されるインタレース画像と比べて、ぶれた画素がない反面、未撮影タイミングにおける情報は画素値に反映されていない。
そのため、一般的な画像の補間手法(バイキュービック法など)を用いて、既に得られている画素値から未撮影位置・未撮影タイミングの画素値を求める。補間の手法は他の方法でも良く、例えば、第1の実施の形態で説明した画像生成手法において動き情報(動き検出を用いた拘束条件)を除いた他の拘束条件のみを用いて画像生成を行って補間画像を得ても良い。
また、図29の撮影方法を用いて未撮影位置が存在しない画像が得られる場合であっても第1の実施の形態の画像生成手法で画像生成を行ってもよい。そうすれば、動きブレを含んだままの画像から拘束条件を用いてより望ましい画像に変換することが可能となり、次のステップにおける動き検出の精度の向上が期待できる。
なお、上記の例では、ステップ2702で補間画像を生成した後、動き検出および動き検出の信頼度を求めているが、補間画像を生成する前の画像を用いて動き検出および動き検出の信頼度を求めても、上記の例と同様に本願発明の効果が得られる。
次に未撮影位置のない画像を用いて、動き検出と動きの信頼度を算出する(ステップ2703)。ステップ2703からステップ2704までの処理は第1の実施の形態と同様である(図3ステップ602からステップ603を参照)。
次に、目的とする高速高解像度動画像に対する総合的な拘束条件J(HH)を設定する(ステップ2705)。本実施の形態での総合的な拘束条件Jの例を数25に示す。
Figure 0003934151
数25の右辺において、第1項は高速高解像度動画像から数22の関係式を使って作り出したインタレース画像MI1’とマルチインタレース画像入力部101cに実際に入力されるインタレース画像MI1との差(対応する画素値との差の2乗和)を表す拘束である。
第2項は、高速高解像度動画像から数23の関係式を使って作り出したインタレース画像MI2’とマルチインタレース画像入力部101cに実際に入力されるインタレース画像MI2との差を表す拘束である。
第3項は、高速高解像度動画像から数24の関係式を使って作り出したインタレース画像MI3’とマルチインタレース画像入力部101cに実際に入力されるインタレース画像MI3との差を表す拘束である。
第1〜3項の拘束は、生成した画像と撮影した画像との輝度値の関係が、上記数22〜数24の関係をできるだけ満たすようにするものであり、撮影画像と生成画像との間で輝度値の矛盾を生じにくくする条件である。数25の右辺の第4項目以降は第1の実施の形態の数12と同等である。
以降のステップ2706およびステップ2707は、第1の実施の形態の図3のステップ605とステップ606と同様である。
生成される画像の例を図40及び図41に示す。ここで、図40は動き検出の信頼度を用いない場合の結果の例で、図41は動き拘束の信頼度を用いた場合の結果の例を示している。
第1の実施の形態と同様に図36の映像では2つの黒色の矩形が接触する付近で動き検出が一般的に困難になるため、動き検出の誤りが起こりやすい。従って、各フィールド画像において動き検出の信頼度が前記2つの矩形が接触する付近で低い値を持つようになる。
ここで、動き検出の信頼度を用いないで画像の生成を行うと、矩形が接触する付近で誤った動き検出を用いて画像を生成することになり、図40のような画像を得ることになる。一方、動き検出の信頼度を用いて、矩形が接触する付近では動き検出の結果を重視せずに、他の高速条件を優先的に用いることで図41のようにより、望ましい画像を得ることが可能となる。
このように、本実施例のような画像入力を行った場合にでも、動き検出結果を用いる際に、動き検出の信頼度を利用して拘束条件を設定することで、動き検出が困難な場所も含めて高速高解像度の動画像を得ることが可能となる。
更に、第2の実施形態の構成では、通常の撮像素子の画素値の読み出しの順序やタイミングや露出形態を変更するのみで、入力部を構成し、通常の撮像素子の撮影画像に比べて時空間解像度を向上させることが可能となる利点もある。
なお、特許請求の範囲と実施の形態における構成要素の対応は次の通りである。つまり、特許請求の範囲における「画像入力手段」、「動き検出手段」、「外部モデル拘束手段」、「画像統合手段」の一例が、それぞれ、実施の形態における画像入力部101、動き検出部103、外部モデル拘束部104d、画像統合部104である。ただし、特許請求の範囲における各構成要素は、これら実施の形態における対応する構成要素だけに限定されるのでなく、その等価物も含まれる。
本発明は、複数の動画像から新たな動画像を生成する画像生成装置として、特に、高速低解像度動画像と低速高解像度動画像とから高速高解像度動画像を生成する画像生成装置、そのような装置が組み込まれた映像機器やシステム、映像合成装置、映像編集装置、画像復元装置、画像復元プログラム等として利用できる。
図1は、本発明の実施の形態における画像生成システムのハードウェア構成を示すブロック図である。 図2は、第1の実施形態における画像生成装置の構成を示す機能ブロック図である。 図3は、画像生成装置の動作を示すフローチャートである。 図4は、入力画像の時系列の一例を示す図である。 図5は、撮影装置の具体例を示す図である。 図6は、(a)〜(c)は、それぞれ、生成する高速高解像度動画像、入力される高速低解像度動画像および低速高解像度動画像の画素配置の一例を示す図である。 図7は、画素値を補正する場合における入射光量と画素値との関係の例を示すグラフである。 図8は、高速低解像度動画像で求めた動き検出結果と高速高解像度動画像との関係を示す図である。 図9は、生成する高速高解像度動画像のフレーム画像の一例を示す図である。 図10は、入力される高速低解像度動画像のフレーム画像の一例を示す図である。 図11は、入力される低速高解像度動画像のフレーム画像の一例を示す図である。 図12は、信頼度の分布例を示す図である。 図13は、生成された動画像のフレーム画像の一例を示す図である。 図14は、信頼度を用いないで生成した場合の動画像のフレーム画像の一例を示す図である。 図15(a)〜(e)は、高速高解像度画像のフレーム画像の一例を示す図である。 図16(a)〜(e)は、高速低解像度画像のフレーム画像の一例を示す図である。 図17(a)、(b)は、短時間露出で撮影した低速高解像度画像のフレーム画像の一例を示す図である。 図18(a)、(b)は、長時間露出で撮影した低速高解像度画像のフレーム画像の一例を示す図である。 図19(a)〜(e)は、短時間露出で生成したフレーム画像の一例を示す図である。 図20(a)〜(e)は、短時間露出で生成したフレーム画像の一例を示す図である。 図21(a)〜(e)は、長時間露出で生成したフレーム画像の一例を示す図である。 図22(a)〜(e)は、長時間露出で生成したフレーム画像の一例を示す図である。 図23は、生成した画像の信頼度を用いて画像を符号化する圧縮率を変化させる場合の信頼度と圧縮率との関係の一例を示すグラフである。 図24は、カラーの動画像を統合する場合の処理手順を示すフローチャートである。 図25は、領域分割処理の一例を示す図である。 図26は、画像生成システムの具体例を示すブロック図である。 図27は、画像生成システムの具体例を示すブロック図である。 図28は、第2の実施形態における画像生成装置の構成を示す機能ブロック図である。 図29は、入力画像の撮影位置と撮影タイミングの一例を示す図である。 図30は、入力画像の撮影位置と撮影タイミングの一例を示す図である。 図31は、入力画像の撮影位置と撮影タイミングの一例を示す図である。 図32は、入力画像の撮影位置と撮影タイミングの一例を示す図である。 図33は、入力画像の撮影位置と撮影タイミングの一例を示す図である。 図34は、高速高解像度画像の画素配置の一例を示す図である。 図35は、画像生成装置の動作を示すフローチャートである。 図36は、第2の実施形態における高速高解像度動画像のフレーム画像の一例を示す図である。 図37は、入力されるフィールド画像の一例を示す図である。 図38は、入力されるフィールド画像の一例を示す図である。 図39は、入力されるフィールド画像の一例を示す図である。 図40は、信頼度を用いないで生成した場合の動画像のフレーム画像の一例を示す図である。 図41は、生成された動画像のフレーム画像の一例を示す図である。 図42は、入力されるフィールド画像の一例を示す図である。 図43は、入力されるフィールド画像の一例を示す図である。 図44は、入力されるフィールド画像の一例を示す図である。 図45は、従来の画像生成装置の構成を示すブロック図である。 図46は、従来の画像生成装置における入力画像の時系列を示す図である。
符号の説明
10 撮像装置
20 画像記憶装置
30 画像生成装置
40 表示装置
100 画像生成システム
101 画像入力部
101a 高速画像入力部
101b 低速画像入力部
101c マルチインターレース画像入力部
102 符号化部
103 動き検出部
103a 動き分布算出部
103b 動き信頼度分布算出部
103c センサ入力部
104 画像統合部
104a 統合処理部
104b 拘束制御部
104c 動き拘束指定部
104d 外部モデル拘束部
104e 拘束指定部
300 カメラ
400 ディスプレイ機器

Claims (12)

  1. 同一事象を撮影して得られた複数の動画像から、前記事象を表す新たな動画像を生成する画像生成装置であって、
    第1動画像と、前記第1動画像と同一の事象を撮影し、解像度が前記第1動画像の解像度よりも高く、かつ各々のフレームが前記第1動画像の1フレーム時間よりも長時間の露光によって得られる第2動画像とを受け付ける画像入力手段と、
    前記第1動画像と前記第2動画像とから、前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、そのフレームの露光期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させることによって生成する画像統合手段と
    を備えることを特徴とする画像生成装置。
  2. 前記第2動画像のフレームはフレーム間の開放露光により得られる
    ことを特徴とする請求項1記載の画像生成装置。
  3. さらに、生成される新たな動画像の画素値が、時空間的に隣り合う画素の画素値の連続性から満たすべき拘束条件を指定する拘束手段を備え、
    前記画像統合手段は、前記指定された前記拘束条件が維持されるように前記新たな動画像を生成する
    ことを特徴とする請求項1記載の画像生成装置。
  4. さらに、前記画像入力手段が受け付けた複数の動画像の少なくとも1つから対象物の動きを検出する動き検出手段と、
    生成される新たな動画像の画素値が、前記動き検出結果に基づいて満たすべき拘束条件を指定する拘束手段とを備え、
    前記画像統合手段は、指定された前記拘束条件が維持されるように前記新たな動画像を生成する
    ことを特徴とする請求項1記載の画像生成装置。
  5. 前記動き検出手段は、前記動き検出の信頼度を算出し、
    前記画像統合手段は、前記動き検出手段によって算出された信頼度が高い画像領域については前記動き検出結果に基づく拘束条件を用いて新たな画像を生成し、前記信頼度が低い画像領域については動き拘束以外の予め定められた拘束条件を用いて前記新たな動画像を生成する
    ことを特徴とする請求項4記載の画像生成装置。
  6. 前記動き検出手段は、前記動画像を構成する各画像を分割したブロック単位で動きを検出し、ブロック同士の画素値の差の2乗和の符号を逆にした値を前記信頼度として算出し、
    前記画像統合手段は、前記信頼度が予め定めた値よりも大きいブロックを信頼度の高い画像領域とし、前記信頼度が予め定めた値よりも小さいブロックを信頼度の低い画像領域として、前記新たな動画像を生成する
    ことを特徴とする請求項5記載の画像生成装置。
  7. 前記動き検出手段はさらに、対象物を撮像する撮像装置の姿勢を検出する姿勢センサからの信号を受け付ける姿勢センサ入力部を有し、前記姿勢センサ入力部が受け付けた信号を用いて前記動きを検出する
    ことを特徴とする請求項4記載の画像生成装置。
  8. 前記画像統合手段は、前記第1動画像から色差情報を抽出し、前記第1動画像から取得された輝度情報と前記第2動画像とから中間的な新たな動画像を生成し、生成した中間的な動画像に前記色差情報を付加することによって、最終的な前記新たな動画像を生成する
    ことを特徴とする請求項1記載の画像生成装置。
  9. 前記画像統合手段は、前記複数の動画像の少なくとも1つについて画像の時間的な変化量を算出し、算出した変化量が予め定めた値を超える時間を画像生成の区切りとして新たな動画像を生成する
    ことを特徴とする請求項1記載の画像生成装置。
  10. 前記画像統合手段はさらに、生成した新たな動画像の信頼性を示す値を算出し、算出した値を前記新たな動画像とともに出力する
    ことを特徴とする請求項1記載の画像生成装置。
  11. 複数の動画像から新たな動画像を生成する画像生成方法であって、
    第1動画像と、解像度が前記第1動画像の解像度よりも高くかつ一つのフレームが前記第1動画像の複数のフレーム期間にわたる露出により得られる第2動画像とを受け付ける画像入力ステップと、
    前記第1動画像のフレームレート以上のフレームレートでかつ前記第2動画像の解像度以上の解像度の新たな動画像を、前記第2動画像のフレームと、そのフレームの露出期間に対応する前記新たな動画像の複数のフレームの合計との誤差を減少させるように生成する画像統合ステップと
    を含むことを特徴とする画像生成方法。
  12. 複数の動画像から新たな動画像を生成するためのプログラムであって、
    請求項11記載の画像生成方法に含まれるステップをコンピュータに実行させる
    ことを特徴とするプログラム。
JP2006526470A 2005-06-22 2006-06-01 画像生成装置および画像生成方法 Expired - Fee Related JP3934151B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2005182646 2005-06-22
JP2005182646 2005-06-22
JP2006019138 2006-01-27
JP2006019138 2006-01-27
PCT/JP2006/310976 WO2006137253A1 (ja) 2005-06-22 2006-06-01 画像生成装置および画像生成方法

Publications (2)

Publication Number Publication Date
JP3934151B2 true JP3934151B2 (ja) 2007-06-20
JPWO2006137253A1 JPWO2006137253A1 (ja) 2009-01-22

Family

ID=37570286

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006526470A Expired - Fee Related JP3934151B2 (ja) 2005-06-22 2006-06-01 画像生成装置および画像生成方法

Country Status (3)

Country Link
US (1) US7596177B2 (ja)
JP (1) JP3934151B2 (ja)
WO (1) WO2006137253A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009011082A1 (ja) * 2007-07-17 2009-01-22 Panasonic Corporation 画像処理装置、画像処理方法、コンピュータプログラムおよび当該コンピュータプログラムを記録した記録媒体、フレーム間動き算出方法および画像処理方法
WO2009019823A1 (ja) * 2007-08-07 2009-02-12 Panasonic Corporation 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム
WO2009019808A1 (ja) * 2007-08-03 2009-02-12 Panasonic Corporation 画像データを生成する装置、方法およびプログラム
WO2009019824A1 (ja) * 2007-08-07 2009-02-12 Panasonic Corporation 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム
WO2009031287A1 (ja) * 2007-09-07 2009-03-12 Panasonic Corporation 多色画像処理装置及び信号処理装置
US7907183B2 (en) 2006-10-30 2011-03-15 Panasonic Corporation Image generation apparatus and image generation method for generating a new video sequence from a plurality of video sequences
US8094717B2 (en) 2006-10-19 2012-01-10 Panasonic Corporation Image generation apparatus and image generation method
WO2016151734A1 (ja) * 2015-03-23 2016-09-29 日立マクセル株式会社 撮像装置、画像処理装置、およびデジタルカメラ

Families Citing this family (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620203B1 (en) * 2005-03-24 2009-11-17 Itt Manufacturing Enterprises, Inc. Imaging system analysis methods and apparatus
WO2007136745A2 (en) 2006-05-19 2007-11-29 University Of Hawaii Motion tracking system for real time adaptive imaging and spectroscopy
US7978239B2 (en) * 2007-03-01 2011-07-12 Eastman Kodak Company Digital camera using multiple image sensors to provide improved temporal sampling
JP4826546B2 (ja) 2007-06-18 2011-11-30 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP4877090B2 (ja) 2007-06-18 2012-02-15 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
DE102007049740A1 (de) * 2007-10-16 2009-04-23 Technische Universität Braunschweig Carolo-Wilhelmina Verfahren zur Ermittlung von zweidimensionalen Bewegungsvektorfeldern in einer Bildsequenz und Bildverarbeitungseinrichtung hierzu
JP4551486B2 (ja) * 2007-12-04 2010-09-29 パナソニック株式会社 画像生成装置
JP5144237B2 (ja) * 2007-12-05 2013-02-13 キヤノン株式会社 画像処理装置、その制御方法、プログラム
JP2009147730A (ja) * 2007-12-14 2009-07-02 Fujifilm Corp 動画生成装置、動画撮影装置、動画生成方法及びプログラム
JP2009164859A (ja) * 2008-01-04 2009-07-23 Fujifilm Corp 撮像装置及び撮像制御方法
US8120659B2 (en) * 2008-05-22 2012-02-21 Aptina Imaging Corporation Method and system for motion estimation in digital imaging applications
US8705896B2 (en) * 2008-06-13 2014-04-22 Hewlett-Packard Development Company, L.P. Processing a super-resolution target image
JP2010028722A (ja) * 2008-07-24 2010-02-04 Sanyo Electric Co Ltd 撮像装置及び画像処理装置
US8130278B2 (en) * 2008-08-01 2012-03-06 Omnivision Technologies, Inc. Method for forming an improved image using images with different resolutions
JP5347440B2 (ja) * 2008-11-10 2013-11-20 日本電気株式会社 動画像処理装置
GB2503833B (en) * 2008-12-09 2014-04-30 Snell Ltd Motion image rendering system
CN102106150A (zh) * 2009-02-05 2011-06-22 松下电器产业株式会社 摄像处理装置
JP5149861B2 (ja) * 2009-05-01 2013-02-20 富士フイルム株式会社 中間画像生成装置およびその動作制御方法
US8837576B2 (en) * 2009-11-06 2014-09-16 Qualcomm Incorporated Camera parameter-assisted video encoding
US10178406B2 (en) 2009-11-06 2019-01-08 Qualcomm Incorporated Control of video encoding based on one or more video capture parameters
US20110292997A1 (en) * 2009-11-06 2011-12-01 Qualcomm Incorporated Control of video encoding based on image capture parameters
EP2523459B1 (en) 2010-01-07 2017-02-08 Panasonic Intellectual Property Management Co., Ltd. Image processing device, image generating system, method, and program
EP2590396B1 (en) * 2010-07-02 2018-08-08 Sony Interactive Entertainment Inc. Information processing system and information processing method
US8374453B2 (en) 2010-11-10 2013-02-12 Raytheon Company Integrating image frames
US8994837B2 (en) * 2010-11-26 2015-03-31 Intel Mobile Communications GmbH Image processing devices and image processing methods of moving objects
KR101701852B1 (ko) * 2010-12-29 2017-02-13 엘지전자 주식회사 이동단말기 및 그 제어방법
US9606209B2 (en) 2011-08-26 2017-03-28 Kineticor, Inc. Methods, systems, and devices for intra-scan motion correction
JP5773944B2 (ja) * 2012-05-22 2015-09-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
US10150028B2 (en) 2012-06-04 2018-12-11 Sony Interactive Entertainment Inc. Managing controller pairing in a multiplayer game
CN116405747A (zh) 2012-11-28 2023-07-07 核心光电有限公司 多孔径成像系统以及通过多孔径成像系统获取图像的方法
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
CN109040553B (zh) 2013-06-13 2021-04-13 核心光电有限公司 双孔径变焦数字摄影机
EP3779564B1 (en) 2013-07-04 2024-04-10 Corephotonics Ltd. Miniature telephoto lens assembly
WO2015015383A2 (en) 2013-08-01 2015-02-05 Corephotonics Ltd. Thin multi-aperture imaging system with auto-focus and methods for using same
EP3188660A4 (en) 2014-07-23 2018-05-16 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9392188B2 (en) 2014-08-10 2016-07-12 Corephotonics Ltd. Zoom dual-aperture camera with folded lens
US9570106B2 (en) 2014-12-02 2017-02-14 Sony Corporation Sensor configuration switching for adaptation of video capturing frame rate
US20160182866A1 (en) * 2014-12-19 2016-06-23 Sony Corporation Selective high frame rate video capturing in imaging sensor subarea
CN112327463B (zh) 2015-01-03 2022-10-14 核心光电有限公司 微型长焦镜头模块和使用该镜头模块的相机
EP3492958B1 (en) 2015-04-02 2022-03-30 Corephotonics Ltd. Dual voice coil motor structure in a dual-optical module camera
CN112305833A (zh) 2015-04-16 2021-02-02 核心光电有限公司 紧凑型折叠式相机中的自动对焦和光学图像稳定
EP3722860B1 (en) 2015-05-28 2023-04-19 Corephotonics Ltd. Bi-directional stiffness for optical image stabilization and auto-focus in a digital camera
CN106331722B (zh) 2015-07-03 2019-04-26 华为技术有限公司 图像预测方法和相关设备
US9906715B2 (en) * 2015-07-08 2018-02-27 Htc Corporation Electronic device and method for increasing a frame rate of a plurality of pictures photographed by an electronic device
US9943247B2 (en) * 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10230898B2 (en) 2015-08-13 2019-03-12 Corephotonics Ltd. Dual aperture zoom camera with video support and switching / non-switching dynamic control
JP6705134B2 (ja) * 2015-08-21 2020-06-03 コニカミノルタ株式会社 超音波画像診断装置、超音波画像処理方法及び超音波画像処理プログラム
US20170061586A1 (en) * 2015-08-28 2017-03-02 Nokia Technologies Oy Method, apparatus and computer program product for motion deblurring of image frames
US10070060B2 (en) 2015-09-06 2018-09-04 Corephotonics Ltd Auto focus and optical image stabilization with roll compensation in a compact folded camera
KR102291525B1 (ko) 2015-12-29 2021-08-19 코어포토닉스 리미티드 자동 조정가능 텔레 시야(fov)를 갖는 듀얼-애퍼처 줌 디지털 카메라
WO2017208090A1 (en) 2016-05-30 2017-12-07 Corephotonics Ltd. Rotational ball-guided voice coil motor
CN107925728B (zh) 2016-06-19 2020-12-08 核心光电有限公司 双孔径摄影机系统中的帧同步
EP4224233A1 (en) 2016-07-07 2023-08-09 Corephotonics Ltd. Linear ball guided voice coil motor for folded optic
WO2018007951A1 (en) 2016-07-07 2018-01-11 Corephotonics Ltd. Dual-camera system with improved video smooth transition by image blending
CN114051092A (zh) 2016-12-28 2022-02-15 核心光电有限公司 具有延伸光折叠元件扫描范围的致动器及含其的折叠相机
EP3789810B1 (en) 2017-01-12 2022-09-28 Corephotonics Ltd. Compact folded camera
EP3579040B1 (en) 2017-02-23 2021-06-23 Corephotonics Ltd. Folded camera lens designs
CN114137791A (zh) 2017-03-15 2022-03-04 核心光电有限公司 具有全景扫瞄范围的照相装置及移动装置
WO2019048904A1 (en) 2017-09-06 2019-03-14 Corephotonics Ltd. STEREOSCOPIC DEPTH CARTOGRAPHY AND COMBINED PHASE DETECTION IN A DOUBLE-OPENING CAMERA
US10951834B2 (en) 2017-10-03 2021-03-16 Corephotonics Ltd. Synthetically enlarged camera aperture
US10572976B2 (en) * 2017-10-18 2020-02-25 International Business Machines Corporation Enhancing observation resolution using continuous learning
KR102104761B1 (ko) 2017-11-23 2020-04-27 코어포토닉스 리미티드 컴팩트 폴디드 카메라 구조
EP3848749A1 (en) 2018-02-05 2021-07-14 Corephotonics Ltd. Reduced height penalty for folded camera
CN111448793B (zh) 2018-02-12 2021-08-31 核心光电有限公司 具有光学图像稳定化的折叠摄像机
US10599951B2 (en) * 2018-03-28 2020-03-24 Kla-Tencor Corp. Training a neural network for defect detection in low resolution images
US10694168B2 (en) 2018-04-22 2020-06-23 Corephotonics Ltd. System and method for mitigating or preventing eye damage from structured light IR/NIR projector systems
EP3822588B1 (en) 2018-04-23 2022-09-07 Corephotonics Ltd. An optical-path folding-element with an extended two degree of freedom rotation range
CN111316346B (zh) 2018-08-04 2022-11-29 核心光电有限公司 摄像机上方的可切换连续显示信息系统
US11635596B2 (en) 2018-08-22 2023-04-25 Corephotonics Ltd. Two-state zoom folded camera
JP7309520B2 (ja) * 2018-09-26 2023-07-18 キヤノン株式会社 画像処理方法、画像処理装置、撮像装置、プログラム、記憶媒体、画像処理システム、および、学習済みモデルの製造方法
CN112805996B (zh) 2018-10-08 2022-04-22 华为技术有限公司 一种用于生成慢动作视频片段的设备和方法
KR102242437B1 (ko) 2019-01-07 2021-04-20 코어포토닉스 리미티드 슬라이딩 조인트를 갖는 회전 메커니즘
JP2020136774A (ja) * 2019-02-14 2020-08-31 キヤノン株式会社 動きベクトルを検出する画像処理装置およびその制御方法ならびにプログラム
EP4224841A1 (en) 2019-03-09 2023-08-09 Corephotonics Ltd. System and method for dynamic stereoscopic calibration
KR102365748B1 (ko) 2019-07-31 2022-02-23 코어포토닉스 리미티드 카메라 패닝 또는 모션에서 배경 블러링을 생성하는 시스템 및 방법
US11659135B2 (en) * 2019-10-30 2023-05-23 Corephotonics Ltd. Slow or fast motion video using depth information
CN114641983A (zh) 2019-12-09 2022-06-17 核心光电有限公司 用于获得智能全景图像的系统及方法
US11949976B2 (en) 2019-12-09 2024-04-02 Corephotonics Ltd. Systems and methods for obtaining a smart panoramic image
US11295427B2 (en) 2020-02-14 2022-04-05 Pixelworks, Inc. Methods and systems for image processing with multiple image sources
US11356604B2 (en) * 2020-02-14 2022-06-07 Pixelworks, Inc. Methods and systems for image processing with multiple image sources
CN113347490B (zh) * 2020-02-18 2022-08-16 RealMe重庆移动通信有限公司 视频处理方法、终端及存储介质
KR20220003550A (ko) 2020-04-26 2022-01-10 코어포토닉스 리미티드 홀 바 센서 보정을 위한 온도 제어
CN117372248A (zh) 2020-05-17 2024-01-09 核心光电有限公司 全视场参考图像的图像拼接
WO2021245488A1 (en) 2020-05-30 2021-12-09 Corephotonics Ltd. Systems and methods for obtaining a super macro image
US11637977B2 (en) 2020-07-15 2023-04-25 Corephotonics Ltd. Image sensors and sensing methods to obtain time-of-flight and phase detection information
EP4045960A4 (en) 2020-07-15 2022-12-14 Corephotonics Ltd. CORRECTING THE ABERRATION OF VIEWPOINTS IN A FOLDED SCANNING CAMERA
WO2022023914A1 (en) 2020-07-31 2022-02-03 Corephotonics Ltd. Hall sensor - magnet geometry for large stroke linear position sensing
CN112927142B (zh) * 2021-04-02 2022-11-11 中国人民解放军国防科技大学 一种基于时域插值的高速高分辨率视频生成方法和装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5821986A (en) * 1994-11-03 1998-10-13 Picturetel Corporation Method and apparatus for visual communications in a scalable network environment
JP4039858B2 (ja) * 2002-01-09 2008-01-30 株式会社モノリス 画像マッチング方法と装置、および画像符号化方法と装置
JP2003234931A (ja) * 2002-02-08 2003-08-22 Fuji Photo Film Co Ltd 電子カメラ
JP3877651B2 (ja) * 2002-07-02 2007-02-07 株式会社モノリス 画像処理方法と装置
KR100586883B1 (ko) * 2004-03-04 2006-06-08 삼성전자주식회사 비디오 스트리밍 서비스를 위한 비디오 코딩방법, 프리디코딩방법, 비디오 디코딩방법, 및 이를 위한 장치와, 이미지 필터링방법
US20050219642A1 (en) * 2004-03-30 2005-10-06 Masahiko Yachida Imaging system, image data stream creation apparatus, image generation apparatus, image data stream generation apparatus, and image data stream generation system
US7777790B2 (en) * 2005-01-27 2010-08-17 Technion Research & Development Foundation Ltd. Acquisition of image sequences with enhanced resolution

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8094717B2 (en) 2006-10-19 2012-01-10 Panasonic Corporation Image generation apparatus and image generation method
US7907183B2 (en) 2006-10-30 2011-03-15 Panasonic Corporation Image generation apparatus and image generation method for generating a new video sequence from a plurality of video sequences
JP4469018B2 (ja) * 2007-07-17 2010-05-26 パナソニック株式会社 画像処理装置、画像処理方法、コンピュータプログラムおよび当該コンピュータプログラムを記録した記録媒体、フレーム間動き算出方法および画像処理方法
US7903156B2 (en) 2007-07-17 2011-03-08 Panasonic Corporation Image processing device, image processing method, computer program, recording medium storing the computer program, frame-to-frame motion computing method, and image processing method
WO2009011082A1 (ja) * 2007-07-17 2009-01-22 Panasonic Corporation 画像処理装置、画像処理方法、コンピュータプログラムおよび当該コンピュータプログラムを記録した記録媒体、フレーム間動き算出方法および画像処理方法
JPWO2009011082A1 (ja) * 2007-07-17 2010-09-16 パナソニック株式会社 画像処理装置、画像処理方法、コンピュータプログラムおよび当該コンピュータプログラムを記録した記録媒体、フレーム間動き算出方法および画像処理方法
JPWO2009019808A1 (ja) * 2007-08-03 2010-10-28 パナソニック株式会社 画像データを生成する装置、方法およびプログラム
JP4469019B2 (ja) * 2007-08-03 2010-05-26 パナソニック株式会社 画像データを生成する装置、方法およびプログラム
US7868927B2 (en) 2007-08-03 2011-01-11 Panasonic Corporation Image data generating apparatus, method and program
WO2009019808A1 (ja) * 2007-08-03 2009-02-12 Panasonic Corporation 画像データを生成する装置、方法およびプログラム
WO2009019824A1 (ja) * 2007-08-07 2009-02-12 Panasonic Corporation 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム
US8018500B2 (en) 2007-08-07 2011-09-13 Panasonic Corporation Image picking-up processing device, image picking-up device, image processing method and computer program
CN101578886B (zh) * 2007-08-07 2011-11-23 松下电器产业株式会社 摄像处理装置以及摄像装置、图像处理方法以及计算机程序
WO2009019823A1 (ja) * 2007-08-07 2009-02-12 Panasonic Corporation 撮像処理装置および撮像装置、画像処理方法およびコンピュータプログラム
US8248495B2 (en) 2007-08-07 2012-08-21 Panasonic Corporation Image picking-up processing device, image picking-up device, image processing method and computer program
WO2009031287A1 (ja) * 2007-09-07 2009-03-12 Panasonic Corporation 多色画像処理装置及び信号処理装置
US7825968B2 (en) 2007-09-07 2010-11-02 Panasonic Corporation Multi-color image processing apparatus and signal processing apparatus
WO2016151734A1 (ja) * 2015-03-23 2016-09-29 日立マクセル株式会社 撮像装置、画像処理装置、およびデジタルカメラ

Also Published As

Publication number Publication date
US7596177B2 (en) 2009-09-29
JPWO2006137253A1 (ja) 2009-01-22
WO2006137253A1 (ja) 2006-12-28
US20070189386A1 (en) 2007-08-16

Similar Documents

Publication Publication Date Title
JP3934151B2 (ja) 画像生成装置および画像生成方法
JP4215266B2 (ja) 画像生成装置および画像生成方法
JP4215267B2 (ja) 画像生成装置および画像生成方法
JP5017419B2 (ja) 画像生成装置、画像生成方法、およびプログラム
JP5341010B2 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
JP6308748B2 (ja) 画像処理装置、撮像装置及び画像処理方法
WO2011090107A1 (ja) 画像処理装置、撮像装置、プログラム及び画像処理方法
US20110141224A1 (en) Panorama Imaging Using Lo-Res Images
CN113271415B (zh) 具有多个图像源的图像处理的方法和系统
JP5002738B2 (ja) 画像生成装置
JP2008541662A (ja) 二重経路画像シーケンス安定化
US8085986B2 (en) Image processing apparatus and method for processing images more naturally and sharply
EP2545411A1 (en) Panorama imaging
JPWO2011083555A1 (ja) 画像処理装置、画像生成システム、方法、およびプログラム
JP5882702B2 (ja) 撮像装置
JP2007329596A (ja) 画像生成装置および画像生成方法
JP6772000B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6508926B2 (ja) 撮像装置および撮像装置の制御方法
JP2009118434A (ja) ぶれ補正装置及び撮像装置
JP4052348B2 (ja) 画像処理装置、及び画像処理方法
JP2012085205A (ja) 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
Quevedo et al. Approach to super-resolution through the concept of multicamera imaging
US11206344B2 (en) Image pickup apparatus and storage medium
JP7409604B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体
JP7458769B2 (ja) 画像処理装置、撮像装置、画像処理方法、プログラムおよび記録媒体

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070314

R150 Certificate of patent or registration of utility model

Ref document number: 3934151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100330

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110330

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120330

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130330

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140330

Year of fee payment: 7

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees