以下、発明の実施の形態を通じてこの発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、一実施形態に係わる画像処理システム10の一例を示す。画像処理システム10は、以下に説明するように、監視システムとして機能することができる。
画像処理システム10は、監視対象空間150を撮像する複数の撮像装置100a−d(以下、撮像装置100と総称する。)、撮像装置100により撮像された撮像画像を処理する画像処理装置120、通信ネットワーク110、画像処理装置170、画像DB175、および複数の表示装置180a−d(以下、表示装置180と総称する。)を備える。画像処理装置170および表示装置180は、監視対象空間150と異なる空間160に設けられている。
撮像装置100aは、撮像部102aおよび撮像画像圧縮部104aを有している。撮像部102aは、連続して監視対象空間150を撮像することによって複数の撮像画像を撮像する。なお、撮像部102aにより得られる撮像画像は、RAW形式の撮像画像であってよい。撮像画像圧縮部104aは、撮像部102aにより撮像されたRAW形式の撮像画像を同時化して、同時化して得られた複数の撮像画像を含む撮像動画をMPEG符号化等により圧縮して、撮像動画データを生成する。このように、撮像装置100aは、監視対象空間150を撮像して得られた撮像動画を符号化して撮像動画データを生成する。撮像装置100aは、当該撮像動画データを画像処理装置120に出力する。
なお、撮像装置100b、撮像装置100c、および撮像装置100dは、それぞれ撮像装置100aと同様の構成を有するので、撮像装置100b、撮像装置100c、および撮像装置100dの各構成要素の説明を省略する。このようにして、画像処理装置120は、複数の撮像装置100のそれぞれにより生成された撮像動画データを、複数の撮像装置100のそれぞれから取得する。
そして、画像処理装置120は、撮像装置100から取得した撮像動画データを復号して撮像動画を取得する。画像処理装置120は、取得した撮像動画に含まれる複数の撮像画像のそれぞれから、人物130が撮像された領域、車輌等の移動体140が撮像された領域等のように、特徴の種類が異なる複数の特徴領域を検出する。そして、画像処理装置120は、特徴の種類に応じた強度で特徴領域の画像を圧縮するとともに、特徴領域以外の領域の画像を、それぞれの特徴領域の画像を圧縮する圧縮強度より強い強度で圧縮してよい。
なお、画像処理装置120は、特徴パラメータで物体が表現される数学モデルを記憶している。そして、画像処理装置120は、特徴領域に含まれる物体の画像を、当該数学モデルに適合させることによって、物体の画像を表す特徴パラメータの値を算出する。
そして、画像処理装置120は、撮像画像から検出された特徴領域を特定する情報を含む特徴領域情報を生成する。そして、画像処理装置120は、特徴パラメータの値および特徴領域情報を圧縮動画データに付帯して、通信ネットワーク110を通じて画像処理装置170に送信する。
画像処理装置170は、特徴パラメータの値および特徴領域情報が対応づけられた圧縮動画データを画像処理装置120から受信する。そして、画像処理装置170は、受信した圧縮動画データを、対応づけられている特徴領域情報を用いて伸張する。このとき、画像処理装置170は、伸張された得られた特徴領域の画像を用いて、特徴パラメータの値でモデルを変更することによって特徴領域に含まれる物体の画像を生成する。このようにして生成された表示用動画は、表示装置180に供給される。表示装置180は、画像処理装置170から供給された表示用動画を表示する。
また、画像処理装置170は、圧縮動画データに対応づけられている特徴領域情報に対応づけて、当該圧縮動画データおよび特徴パラメータを画像DB175に記録してもよい。そして、画像処理装置170は、表示装置180からの要求に応じて、画像DB175から圧縮動画データ、特徴領域情報、および特徴パラメータの値を読み出して、上記のようにして表示用動画を生成して表示装置180に供給してもよい。
なお、特徴領域情報は、特徴領域の位置、特徴領域の大きさ、特徴領域の数、特徴領域が検出された撮像画像を識別する識別情報等を含むテキストデータ、もしくは当該テキストデータに圧縮、暗号化等の処理が施されたデータであってよい。そして、画像処理装置170は、特徴領域情報が含む特徴領域の位置、特徴領域の大きさ、特徴領域の数等に基づいて、種々の検索条件を満たす撮像画像を特定する。そして、画像処理装置170は、特定した撮像画像を復号して、表示装置180に提供してよい。
このように、画像処理システム10によると、特徴領域を動画に対応づけて記録しているので、動画における所定の条件に適合する撮像画像群を高速に検索、頭出しをすることができる。また、画像処理システム10によると、所定の条件に適合する撮像画像群だけ復号することができるので、再生指示に即応して速やかに所定の条件に適合する部分動画を表示することができる。
図2は、画像処理装置120のブロック構成の一例を示す。画像処理装置120は、画像取得部250、特徴領域検出部203、モデル格納部270、パラメータ値算出部260、パラメータ量子化部280、圧縮制御部210、圧縮部230、対応付け処理部206、および出力部207を備える。画像取得部250は、圧縮動画取得部201および圧縮動画伸張部202を有する。
圧縮動画取得部201は、圧縮された動画を取得する。具体的には、圧縮動画取得部201は、撮像装置100が生成した、符号化された撮像動画データを取得する。圧縮動画伸張部202は、圧縮動画取得部201が取得した撮像動画データを伸張して、撮像動画に含まれる複数の撮像画像を生成する。具体的には、圧縮動画伸張部202は、圧縮動画取得部201が取得した、符号化された撮像動画データを復号して、撮像動画に含まれる複数の撮像画像を生成する。なお、撮像動画に含まれる撮像画像は、フレーム画像およびフィールド画像であってよい。なお、本実施形態における撮像画像は、この発明における動画構成画像の一例であってよい。このように、画像取得部250は、複数の撮像装置100のそれぞれにより撮像された複数の動画を取得する。
圧縮動画伸張部202によって得られた複数の撮像画像は、特徴領域検出部203および圧縮部230に供給される。特徴領域検出部203は、複数の撮像画像を含む動画から特徴領域を検出する。具体的には、特徴領域検出部203は、複数の撮像画像のそれぞれから特徴領域を検出する。なお、上記における撮像動画は、以下の説明における動画の一例であってよい。
例えば、特徴領域検出部203は、動画において画像内容が変化する画像領域を、特徴領域として検出する。具体的には、特徴領域検出部203は、動くオブジェクトを含む画像領域を、特徴領域として検出してよい。なお、特徴領域検出部203は、複数の撮像画像のそれぞれから、特徴の種類が異なる複数の特徴領域を検出してよい。なお、特徴の種類とは、人物と移動体等のように、オブジェクトの種類を指標にしてよい。オブジェクトの種類は、オブジェクトの形状またはオブジェクトの色の一致度に基づいて決定されてよい。このように、特徴領域検出部203は、複数の撮像画像から、含まれるオブジェクトの種類が異なる複数の特徴領域を検出してよい。
例えば、特徴領域検出部203は、予め定められた形状パターンに予め定められた一致度以上の一致度で一致するオブジェクトを複数の撮像画像のそれぞれから抽出して、抽出したオブジェクトを含む撮像画像における領域を、特徴の種類が同じ特徴領域として検出してよい。なお、形状パターンは、特徴の種類毎に複数定められてよい。また、形状パターンの一例としては、人物の顔の形状パターンを例示することができる。なお、複数の人物毎に異なる顔のパターンが定められてよい。これにより、特徴領域検出部203は、異なる人物をそれぞれ含む異なる領域を、異なる特徴領域として検出することができる。なお、特徴領域検出部203は、上記の人物の顔の他にも、人物の頭部または人物の手等の人体の一部の部位、あるいは人体以外の生体の少なくとも一部の部位を含む領域を、特徴領域として検出することができる。なお、生体とは、生体内部の腫瘍組織または血管等のように、生体の内部に存在する特定の組織を含む。他にも、特徴領域検出部203は、生体の他にも、貨幣、キャッシュカード等のカード、車輌、あるいは車両のナンバープレートが撮像された領域を特徴領域として検出してよい。
また、特徴領域検出部203は、テンプレートマッチング等によるパターンマッチングの他にも、例えば特開2007−188419号公報に記載された機械学習(例えば、アダブースト)等による学習結果に基づいて、特徴領域を検出することもできる。例えば、予め定められた被写体の画像から抽出された画像特徴量と、予め定められた被写体以外の被写体の画像から抽出された画像特徴量とを用いて、予め定められた被写体の画像から抽出された画像特徴量の特徴を学習する。そして、特徴領域検出部203は、当該学習された特徴に適合する特徴を有する画像特徴量が抽出された領域を、特徴領域として検出してよい。これにより特徴領域検出部203は、予め定められた被写体が撮像されている領域を特徴領域として検出することができる。
このように、特徴領域検出部203は、複数の動画のそれぞれに含まれる複数の撮像画像から、複数の特徴領域を検出する。そして、特徴領域検出部203は、検出した特徴領域を示す情報を、圧縮制御部210に供給する。なお、特徴領域を示す情報とは、特徴領域の位置を示す特徴領域の座標情報、特徴領域の種類を示す種類情報、および特徴領域が検出された撮像動画を識別する情報を含む。このように、特徴領域検出部203は、動画における特徴領域を検出する。
圧縮制御部210は、特徴領域検出部203から取得した特徴領域を示す情報に基づいて、特徴領域に応じて圧縮部230による動画の圧縮処理を制御する。なお、圧縮部230は、撮像画像における特徴領域と撮像画像における特徴領域以外の領域とで異なる強度で圧縮することにより、撮像画像を圧縮してよい。例えば、圧縮部230は、動画に含まれる撮像画像における特徴領域以外の領域の解像度を低解像度化することにより撮像画像を圧縮する。このように、圧縮部230は、特徴領域以外の領域の画像の画質を低減することにより、特徴領域以外の領域の画像を圧縮する。また、圧縮部230は、撮像画像における各画像領域のそれぞれを重要度に応じた強度で圧縮する。なお、圧縮部230のより具体的な内部の圧縮動作については、後に説明する。
モデル格納部270は、物体が特徴パラメータで表現されたモデルを格納する。例えば、モデル格納部270は、物体が統計的な特徴パラメータにより表現されたモデルを格納してよい。より具体的には、モデル格納部270は、主成分分析に基づく主成分で物体が表現されたモデルを格納してよい。なお、モデル格納部270は、主成分分析に基づく主成分で物体の形状が表現されたモデルを格納してよい。また、モデル格納部270は、主成分分析に基づく主成分で物体の色が表現されたモデルを格納してよい。
パラメータ値算出部260は、撮像画像における特徴領域の画像に含まれる物体の画像を、モデル格納部270が格納しているモデルに適応させることによって、特徴領域の画像に含まれる物体を表す、モデルにおける特徴パラメータの値を算出する。具体的には、パラメータ値算出部260は、モデルにおける主成分の重みを算出する。特徴パラメータが主成分分析により得られた主成分ベクトルである場合、特徴パラメータの値としては、主成分ベクトルへの重みづけ係数を例示することができる。
パラメータ量子化部280は、出力部207から特徴パラメータの値が出力されるべき特徴パラメータを選択する。具体的には、パラメータ量子化部280は、主成分分析によって抽出されている主成分のうち、どのレベルの主成分まで重みづけ係数を出力するべきか決定する。例えば、パラメータ量子化部280は、特徴領域の特徴の種類に応じて予め定められたレベルまで主成分の重みづけ係数を出力されるべき旨を決定する。パラメータ量子化部280が決定したレベルの主成分に対する重みづけ係数は、対応付け処理部206に供給される。
対応付け処理部206は、撮像画像から検出された特徴領域を特定する情報および重みづけ係数を、撮像画像に対応づける。具体的には、対応付け処理部206は、撮像画像から検出された特徴領域を特定する情報および重みづけ係数を、撮像画像を動画構成画像として含む圧縮動画に対応づける。そして、出力部207は、対応付け処理部206によって特徴領域を特定する情報および重みづけ係数が対応付けされた圧縮動画を、画像処理装置170に出力する。
このように、出力部207は、パラメータ値算出部260が算出した特徴パラメータの値および特徴領域以外の領域の画像を出力する。より具体的には、出力部207は、パラメータ量子化部280が選択した特徴パラメータの値および圧縮部230により画質が低減された特徴領域以外の領域の画像を出力する。
なお、出力部207から出力される圧縮動画は、特徴領域については画素情報を含まなくてよい。このように、出力部207は、パラメータ値算出部260が算出した主成分の重みおよび特徴領域以外の領域の画像を出力する。より具体的には、出力部207は、パラメータ値算出部260が算出した特徴パラメータの値および圧縮部230により画質が低減された特徴領域以外の領域の画像を出力する。
以上説明したように、画像処理装置120によると、特徴領域に含まれる物体の画像については特徴パラメータ値で表現することによって、十分にデータ量を削減しつつ、後で物体の画像を再構成することができる情報を残すことができる。また、特徴領域に比べて重要度が低い背景領域については、画質を低減することでデータ量を著しく削減することができる。
なお、モデル格納部270は、異なる種類の物体のモデルを、当該種類に対応づけて格納してよい。そして、パラメータ値算出部260は、撮像画像における特徴領域の画像に含まれる物体の画像を、特徴領域に撮像されている物体の種類に対応づけてモデル格納部270が格納しているモデルに適応させることによって、特徴パラメータの値を算出してよい。この場合、出力部207は、パラメータ値算出部260が算出した特徴パラメータの値、特徴領域に撮像されている物体の種類、および圧縮部230により画質が低減された特徴領域以外の領域の画像を出力することが望ましい。これにより、画像処理装置170側で適切な種類のモデルを選択して再構成することができる。
また、モデル格納部270は、異なる方向から見た物体のモデルを、当該方向に対応づけて格納してよい。そして、パラメータ値算出部260は、撮像画像における特徴領域の画像に含まれる物体の画像を、特徴領域に撮像されている物体が撮像された方向に対応づけてモデル格納部270が格納しているモデルに適応させることによって、特徴パラメータの値を算出してよい。この場合、出力部207は、パラメータ値算出部260が算出した特徴パラメータの値、特徴領域に撮像されている物体が撮像された方向、および圧縮部230により画質が低減された特徴領域以外の領域の画像を出力すること画望ましい。
また、モデル格納部270は、異なる照明条件で照明された物体のモデルを、当該照明条件に対応づけて格納してよい。そして、パラメータ値算出部260は、撮像画像における特徴領域の画像に含まれる物体の画像を、特徴領域に撮像されている物体が照明された照明条件に対応づけてモデル格納部270が格納しているモデルに適応させることによって、特徴パラメータの値を算出してよい。この場合、出力部207は、パラメータ値算出部260が算出した特徴パラメータの値、特徴領域に撮像されている物体が照明された照明条件、および圧縮部230により画質が低減された特徴領域以外の領域の画像を出力することが望ましい。
このように、モデル格納部270は、物体の種類、物体の方向、および照明条件等に対応づけて複数のモデルを格納している。このため、特徴領域の物体の画像を、より適切なモデルを用いて表現することができるので、特徴領域の画質を維持しつつデータ量を削減することができる。
図3は、圧縮部230のブロック構成の一例を示す。圧縮部230は、画像分割部232、複数の固定値化部234a−c(以下、固定値化部234と総称する場合がある。)、複数の画質変換部241a−d(以下、画質変換部241と総称する。)を含む画質変換ユニット240、および複数の圧縮処理部236a−d(以下、圧縮処理部236と総称する場合がある。)を有する。
画像分割部232は、画像取得部250から複数の撮像画像を取得する。そして、画像分割部232は、複数の撮像画像を、特徴領域と、特徴領域以外の背景領域とに分割する。具体的には、画像分割部232は、複数の撮像画像を、複数の特徴領域のそれぞれと、特徴領域以外の背景領域とに分割する。このように、画像分割部232は、複数の撮像画像のそれぞれを、特徴領域と背景領域とに分割する。
そして、圧縮処理部236は、特徴領域の画像である特徴領域画像と背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する。具体的には、圧縮処理部236は、特徴領域画像を複数含む特徴領域動画と背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する。
具体的には、画像分割部232は、複数の撮像画像を分割することにより、複数の特徴の種類毎に特徴領域動画を生成する。そして、固定値化部234は、特徴の種類毎に生成された複数の特徴領域動画に含まれる特徴領域画像のそれぞれについて、それぞれの特徴の種類の特徴領域以外の領域の画素値を固定値化する。具体的には、固定値化部234は、特徴領域以外の領域の画素値を予め定められた画素値にする。
画質変換部241は、特徴領域の画像および背景領域の画像の画質を変換する。例えば、画質変換部241は、分割された特徴領域の画像および背景領域の画像のそれぞれについて、解像度、階調数、ダイナミックレンジ、または含まれる色数の少なくともいずれかを変換する。そして、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画をMPEG圧縮する。
なお、固定値化部234a、固定値化部234b、および固定値化部234cは、それぞれ第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を固定値化する。また、画質変換部241a、画質変換部241b、画質変換部241c、および画質変換部241dは、それぞれ第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、第3の特徴の種類の特徴領域動画、および背景領域動画の画質を変換する。そして、圧縮処理部236a、圧縮処理部236b、圧縮処理部236c、および圧縮処理部236dは、第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、第3の特徴の種類の特徴領域動画、および背景領域動画を圧縮する。
なお、圧縮処理部236a−cは、特徴の種類に応じて予め定められた強度で特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類に応じて予め定められた異なる解像度に特徴領域動画を変換して、変換した特徴領域動画を圧縮してよい。他にも、圧縮処理部236は、MPEG符号化により特徴領域動画を圧縮する場合には、特徴の種類に応じて予め定められた異なる量子化パラメータで特徴領域動画を圧縮してよい。
なお、圧縮処理部236dは、背景領域動画を圧縮する。なお、圧縮処理部236dは、圧縮処理部236a−cのいずれによる強度より高い強度で背景領域動画を圧縮してよい。圧縮処理部236によって圧縮された特徴領域動画および背景領域動画は、対応付け処理部206に供給される。
なお、特徴領域以外の領域が固定値化部234によって固定値化されているので、圧縮処理部236がMPEG符号化等によって予測符号化する場合に、特徴領域以外の領域において予測画像との間の画像の差分量を著しく低減することができる。したがって、特徴領域動画の圧縮率を著しく高めることができる。
このように、圧縮部230は、撮像画像の画質を低減することにより、画像処理装置170への入力画像となる画像を生成する。具体的には、圧縮部230は、撮像画像の解像度、階調数、用いられる色の数を低減したりすることにより、画像処理装置170への入力画像となる画像を生成する。また、圧縮部230は、一例として、撮像画像におけるより高い空間周波数成分をより低減することにより、画像処理装置170への入力画像となる画像を生成してよい。
なお、本図では、圧縮部230が有する複数の圧縮処理部236のそれぞれが複数の特徴領域の画像および背景領域の画像をそれぞれ圧縮したが、他の形態では、圧縮部230は一の圧縮処理部236を有してよく、一の圧縮処理部236が、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で圧縮してよい。例えば、複数の特徴領域の画像および背景領域の画像が一の圧縮処理部236に時分割で順次供給され、一の圧縮処理部236が、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で順次圧縮してよい。
他にも、一の圧縮処理部236は、複数の特徴領域の画像情報および背景領域の画像情報を異なる量子化係数でそれぞれ量子化することによって、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で圧縮してよい。また、複数の特徴領域の画像および背景領域の画像がそれぞれ異なる画質の画像に変換された画像が一の圧縮処理部236に供給され、一の圧縮処理部236が、複数の特徴領域の画像および背景領域の画像をそれぞれ圧縮してよい。なお、当該画質変換処理は、一の画質変換ユニット240でなされてよい。また、上記のように一の圧縮処理部236が領域毎に異なる量子化係数で量子化したり、領域毎に異なる画質に変換された画像を一の圧縮処理部236が圧縮する形態では、一の圧縮処理部236は、一の画像を圧縮してもよく、本図で説明したように画像分割部232によって分割された画像をそれぞれ圧縮してもよい。なお、一の圧縮処理部236が一の画像を圧縮する場合には、画像分割部232による分割処理および固定値化部234による固定値化処理はなされなくてよいので、圧縮部230は、画像分割部232および固定値化部234を有しなくてよい。
図4は、画像処理装置170のブロック構成の一例を示す。画像処理装置170は、画像取得部301、対応付け解析部302、伸張制御部310、伸張部320、画像生成部380、特徴領域情報取得部360、モデル格納部350、および出力部340を備える。画像生成部380は、拡大部332および合成部330を有する。
画像取得部301は、圧縮部230により圧縮された圧縮動画を取得する。具体的には、画像取得部301は、複数の特徴領域動画および背景領域動画を含む圧縮動画を取得する。より具体的には、画像取得部301は、特徴領域情報および特徴パラメータが付帯された圧縮動画を取得する。このように、画像取得部301は、出力部207から出力された特徴パラメータの値および画質が低減された撮像画像を取得する。特に画像取得部301は、特に、特徴領域以外の領域において画質が低減された撮像画像および特徴パラメータの値を取得する。
そして、対応付け解析部302は、画像取得部301が取得した動画データを複数の特徴領域動画および背景領域動画と、特徴領域情報と、特徴領域パラメータ値とに分離して、複数の特徴領域動画および背景領域動画を伸張部320に供給する。また、対応付け解析部302は、特徴領域の位置および特徴の種類を伸張制御部310および特徴領域情報取得部360に供給する。また、対応付け解析部302は、特徴パラメータ値を特徴領域情報取得部360に供給する。このようにして、特徴領域情報取得部360は、複数の撮像画像のそれぞれにおける特徴領域を示す情報(例えば特徴領域の位置を示す情報)、および特徴パラメータ値を取得することができる。特徴領域情報取得部360は、取得した特徴領域の位置を示す情報および特徴パラメータ値を画像生成部380に供給する。
伸張制御部310は、対応付け解析部302から取得した特徴領域の位置および特徴の種類に応じて、伸張部320による伸張処理を制御する。例えば、伸張制御部310は、特徴領域の位置および特徴の種類に応じて圧縮部230が動画の各領域を圧縮した圧縮方式に応じて、伸張部320に圧縮動画が示す動画の各領域を伸張させる。
以下に、伸張部320が有する各構成要素の動作を説明する。伸張部320は、複数の復号器322a−d(以下、復号器322と総称する。)を有する。復号器322は、符号化された複数の特徴領域動画および背景領域動画のいずれかを復号する。具体的には、復号器322a、復号器322b、復号器322c、および復号器322dは、それぞれ第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画を復号する。伸張部320は、復号して得られた第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画を、画像生成部380に供給する。
画像生成部380は、第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画、特徴領域情報に基づいて一の表示動画を生成する。そして、出力部340は、対応付け解析部302から取得した特徴領域情報および表示動画を表示装置180または画像DB175に出力する。なお、画像DB175は、特徴領域情報が示す特徴領域の位置、特徴領域の特徴の種類、特徴領域の数を、表示動画に含まれる撮像画像を識別する情報に対応づけて、ハードディスク等の不揮発性の記録媒体に記録してよい。なお、出力部340は、この発明における画像出力部として機能し得る。
モデル格納部350は、モデル格納部270が格納しているモデルと同じもモデルを格納している。そして、画像生成部380は、特徴領域に含まれる物体の画像をモデル格納部350が格納しているモデルに適合させることにより、特徴領域に含まれる物体の高画質画像を生成してよい。具体的には、画像生成部380は、モデル格納部350が格納している主成分ベクトルを、特徴パラメータ値の一例としての重みづけ係数で重みづけすることによって、物体の高画質画像を生成してよい。このように、画像生成部380は、特徴領域の画像に含まれる物体の画像を、特徴パラメータの値に基づいてモデルから生成する。
なお、パラメータ値算出部260は、撮像画像における特徴領域の画像に含まれる物体の画像を、モデル格納部270が格納しているモデルに適応させることによって、特徴領域の画像に撮像されている物体の形状を表す、モデルにおける特徴パラメータの値を算出してよい。そして、圧縮部230は、撮像画像における特徴領域および特徴領域以外の領域の画質を低減することにより、撮像画像を圧縮してよい。そして、出力部207は、パラメータ値算出部260が算出した特徴パラメータの値、および圧縮部230により画質が低減された撮像画像を出力してよい。
この場合、画像生成部380は、特徴領域の画像に撮像されている物体の形状を特徴パラメータの値に基づいてモデルから生成し、生成した物体の形状および画像取得部250が取得した撮像画像における特徴領域の画像の画素値を用いて、特徴領域の画像に撮像されている物体の画像を生成する。具体的には、画像生成部380は、特徴領域の画像に撮像されている物体の形状を特徴パラメータの値に基づいてモデルから生成し、生成した物体の形状および伸張部320によって伸張された特徴領域の画像の画素値を用いて、特徴領域の画像に撮像されている物体の画像を生成する。
なお、特徴領域情報取得部360は、出力部207から圧縮動画に対応づけて出力された物体の種類、物体の方向、および照明条件を取得してよい。そして、画像生成部380は、物体の種類、物体の方向、および照明条件に対応づけてモデル格納部350が格納している主成分ベクトルを、特徴領域情報取得部360が取得した重みづけ係数で重みづけすることによって、物体の高画質画像を生成してよい。
画像拡大部332は、特徴領域以外の領域の画像を拡大する。そして、合成部330は特徴領域における物体の高画質画像と、当該拡大された特徴領域以外の領域の画像とを合成する。
そして、出力部340は、高画質画像および特徴領域以外の画像を含む画像を出力する。具体的には、出力部340は、上述したように合成部330により得られた撮像画像を動画構成画像として含む表示動画を出力する。
図5は、圧縮部230の他のブロック構成の一例を示す。本構成における圧縮部230は、特徴の種類に応じた空間スケーラブルな符号化処理によって複数の撮像画像を圧縮する。
本構成における圧縮部230は、画質変換部510、差分処理部520、および符号化部530を有する。差分処理部520は、複数の階層間差分処理部522a−d(以下、階層間差分処理部522と総称する。)を含む。符号化部530は、複数の符号器532a−d(以下、符号器532と総称する。)を含む。
画質変換部510は、画像取得部250から複数の撮像画像を取得する。また、画質変換部510は、特徴領域検出部203が検出した特徴領域を特定する情報および特徴領域の特徴の種類を特定する情報を取得する。そして、画質変換部510は、撮像画像を複製することにより、特徴領域の特徴の種類の数の撮像画像を生成する。そして、画質変換部510は、生成した撮像画像を、特徴の種類に応じた解像度の画像に変換する。
例えば、画質変換部510は、背景領域に応じた解像度に変換された撮像画像(以後、低解像度画像と呼ぶ。)、第1の特徴の種類に応じた第1解像度に変換された撮像画像(第1解像度画像と呼ぶ。)、第2の特徴の種類に応じた第2解像度に変換された撮像画像(第2解像度画像と呼ぶ。)、および第3の特徴の種類に応じた第3解像度に変換された撮像画像(第3解像度画像と呼ぶ。)を生成する。なお、ここでは、第1解像度画像は低解像度画像より解像度が高く、第2解像度画像は第1解像度画像より解像度が高く、第3解像度画像は第2解像度画像より解像度が高いとする。
そして、画質変換部510は、低解像度画像、第1解像度画像、第2解像度画像、および第3解像度画像を、それぞれ階層間差分処理部522d、階層間差分処理部522a、階層間差分処理部522b、および階層間差分処理部522cに供給する。なお、画質変換部510は、複数の撮像画像のそれぞれについて上記の画質変換処理することにより、階層間差分処理部522のそれぞれに動画を供給する。
なお、画質変換部510は、特徴領域の特徴の種類に応じて、階層間差分処理部522のそれぞれに供給する動画のフレームレートを変換してよい。例えば、画質変換部510は、階層間差分処理部522aに供給する動画より低いフレームレートの動画を階層間差分処理部522dに供給してよい。また、画質変換部510は、階層間差分処理部522bに供給する動画より低いフレームレートの動画を階層間差分処理部522aに供給してよく、階層間差分処理部522cに供給する動画より低いフレームレートの動画を階層間差分処理部522bに供給してよい。なお、画質変換部510は、特徴領域の特徴の種類に応じて撮像画像を間引くことによって、階層間差分処理部522に供給する動画のフレームレートを変換してよい。なお、画質変換部510は、図3に関連して説明した画質変換部241と同様の画質変換処理を行うことができる。
階層間差分処理部522dおよび符号器532dは、複数の低解像度画像を含む背景領域動画を予測符号化する。具体的には、階層間差分処理部522は、他の低解像度画像から生成された予測画像との差分画像を生成する。そして、符号器532dは、差分画像を空間周波数成分に変換して得られた変換係数を量子化して、量子化された変換係数をエントロピー符号化等により符号化する。なお、このような予測符号化処理は、低解像度画像の部分領域毎に行われてよい。
また、階層間差分処理部522aは、画質変換部510から供給された複数の第1解像度画像を含む第1特徴領域動画を予測符号化する。同様に、階層間差分処理部522bおよび階層間差分処理部522cは、それぞれ複数の第2解像度画像を含む第2特徴領域動画および複数の第3解像度画像を含む第3特徴領域動画を予測符号化する。以下に、階層間差分処理部522aおよび符号器532aの具体的な動作について説明する。
階層間差分処理部522aは、符号器532dによる符号化後の第1解像度画像を復号して、復号した画像を第1解像度と同じ解像度の画像に拡大する。そして、階層間差分処理部522aは、拡大した画像と低解像度画像との間の差分画像を生成する。このとき、階層間差分処理部522aは、背景領域における差分値を0にする。そして、符号器532aは、差分画像を符号器532dと同様に符号化する。なお、階層間差分処理部522aおよび符号器532aによる符号化処理は、第1解像度画像の部分領域毎にされてよい。
なお、階層間差分処理部522aは、第1解像度画像を符号化する場合に、低解像度画像との間の差分画像を符号化した場合に予測される符号量と、他の第1解像度画像から生成された予測画像との間の差分画像を符号化した場合に予測される符号量とを比較する。後者の符号量の方が小さい場合には、階層間差分処理部522aは、他の第1解像度画像から生成された予測画像との間の差分画像を生成する。なお、階層間差分処理部522aは、低解像度画像または予測画像との差分をとらずに符号化した方が符号量が小さくなることが予測される場合には、低解像度画像または予測画像との間で差分をとらなくてもよい。
なお、階層間差分処理部522aは、背景領域における差分値を0にしなくてもよい。この場合、符号器532aは、特徴領域以外の領域における差分情報に対する符号化後のデータを0にしてもよい。例えば、符号器532aは、周波数成分に変換した後の変換係数を0にしてよい。なお、階層間差分処理部522dが予測符号化した場合の動きベクトル情報は、階層間差分処理部522aに供給される。階層間差分処理部522aは、階層間差分処理部522dから供給された動きベクトル情報を用いて、予測画像用の動きベクトルを算出してよい。
なお、階層間差分処理部522bおよび符号器532bの動作は、第2解像度画像を符号化するという点、および第2解像度画像を符号化する場合に、符号器532aによる符号化後の第1解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522bおよび符号器532bの動作は階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。同様に、階層間差分処理部522cおよび符号器532cの動作は、第3解像度画像を符号化するという点、および第3解像度画像を符号化を符号化する場合に、符号器532bによる符号化後の第2解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。
以上説明したように、画質変換部510は、複数の撮像画像のそれぞれから、画質を低画質にした低画質画像、および少なくとも特徴領域において低画質画像より高画質な特徴領域画像を生成する。そして、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する。そして、符号化部530は、特徴領域差分画像および低画質画像をそれぞれ符号化する。
また、画質変換部510は、複数の撮像画像から解像度が低減された低画質画像を生成して、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像を拡大した画像との間の特徴領域差分画像を生成する。また、差分処理部520は、特徴領域において特徴領域画像と拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域差分画像を生成する。
以上説明したように、圧縮部230は、解像度が異なる複数の階層間の画像の差分を符号化することによって階層的に符号化する。このことからも明らかなように、本構成の圧縮部230による圧縮方式の一部は、H.264/SVCによる圧縮方式を含むことが明らかである。なお、画像処理装置170がこのような階層化された圧縮動画を伸張する場合には、各階層の動画データを復号して、階層間差分により符号化されている領域については、差分がとられた階層で復号された撮像画像との加算処理により、元の解像度の撮像画像を生成することができる。
図6は、人間の顔における特徴点の一例を示す。図2および図3に関連して説明したように、モデル格納部270およびモデル格納部350は、特徴パラメータで物体を表現するモデルを格納している。以下に、モデル格納部270およびモデル格納部350が格納するモデルを生成する生成方法の一例として、物体の一例である人物の顔のモデルをAAM手法を用いて生成する場合について説明する。
サンプルとなる人間の顔部分が表された複数の顔画像(以下、サンプル画像)の各々に対して、本図に示すように、顔形状を表す特徴点をn個設定する。なお、ここでは、特徴点の数は顔画像の画素数より少ないものとする。各特徴点は、例えば、1番目の特徴点は左目の左端、11番目の特徴点は眉の間の中央というように、顔のどの部位を示すかが予め定められていてよい。また、各特徴点は、手作業によって設定してもよいし、認識処理によって自動的に設定してもよい。
そして、各サンプル画像中に設定された特徴点に基づいて、顔の平均形状を算出する。具体的には、各サンプル画像における、同じ部位を示す特徴点毎の位置座標の平均を求める。そして、各サンプル画像における顔形状を表す特徴点とその平均形状の位置座標に基づいて主成分分析を行う。その結果、任意の顔形状Sは、S=S0+Σpibi(i=1〜n)によって表現することができる。
ここで、Sは顔形状の各特徴点の位置座標を並べて表現される形状ベクトル(x1,y1,・・・,xn,yn)であり、S0は平均顔形状における各特徴点の位置座標を並べて表現される平均顔形状ベクトル、piは主成分分析によって得られた顔形状についての第i主成分を表す固有ベクトル、biは各固有ベクトルpiに対する重みづけ係数を表す。
図7は、重みづけ係数bを変化させた場合の顔形状の変化の一例を模式的に示す。本図では、主成分分析によって得られた上位2つの主成分の固有ベクトルp1、p2に対する重みづけ係数b1、b2の値を変化させた場合の顔形状の変化の様子を模式的に表している。a)は、重みづけ係数b1を変化させた場合の顔形状の変化を示しており、b)は、重みづけ係数b2を変化させた場合の顔形状の変化を示している。a)およびb)のいずれにおいても、各主成分についての3つの顔形状の中央のものは、平均的な顔形状を示す。
この例では、主成分分析の結果、第1主成分としては顔の輪郭形状に寄与する成分が抽出されており、重みづけ係数b1を変化させることによって、a)左端に示す細長い顔からa)右端に示す丸顔まで顔形状が変化していることがわかる。同様に、第2主成分としては口の開閉状態と顎の長さに寄与する成分が抽出されており、重みづけ係数b2を変化させることによって、b)左端に示すような口が開いた状態で顎が長い顔から、b)右端に示すような口が閉じられた状態で顎が短い顔まで、顔形状が変化することがわかる。なお、各主成分が結果としてどのような形状要素に寄与しているかは人間の解釈による。主成分分析により、使用された各サンプル画像においてより大きな形状の違いを表現するものがより低次の主成分として抽出される。
図8は、サンプル画像を平均顔形状に変換して得られた画像の一例を示す。各サンプル画像は、平均顔形状に変換(ワーピング)される。具体的には、各特徴点について、各サンプル画像と平均顔形状との間でのシフト量が算出される。そして、当該シフト量に基づいて、各サンプル画像の画素毎の平均顔形状へのシフト量を算出して、各サンプル画像が画素毎に平均顔形状へワーピングされる。
そして、平均顔形状に変換後のサンプル画像毎の各画素のR,G,Bの色成分の画素値を変数として主成分分析する。その結果、任意の顔画像の平均顔形状下でのR,G,Bの色成分の画素値は、A=A0+Σqiλi(i=1〜m)によって近似することができる。
ここで、Aは、平均顔形状下での各画素のR,G,B色成分の各々の画素値を並べて表現されるベクトル(r1,g1,b1,r2,g2,b2,・・・,rm,gm,bm)である。なお、r、g、bはそれぞれR,G,B色成分の画素値、1からmは各画素を識別する添え字、mは平均顔形状での総画素数を示す。なお、ベクトルの成分の並び順は上記の順に限定されない。
また、A0は平均顔形状における各サンプル画像の画素毎のR,G,B色成分の各々の画素値の平均値を並べて表現される平均ベクトル、qiは主成分分析によって得られた顔のR,G,B色成分の画素値についての第i主成分を表す固有ベクトル、λiは各固有ベクトルqiに対する重みづけ係数を表す。
図9は、重みづけ係数qを変化させた場合の画素値の変化の一例を模式的に示す。本図では、主成分分析によって得られた上位2つの主成分の固有ベクトルq1、q2に対する重みづけ係数λ1、λ2の値を変化させた場合の顔の画素値の変化の様子を模式的に表している。a)は、重みづけ係数λ1を変化させた場合の画素値の変化を示しており、b)は、重みづけ係数λ2を変化させた場合の画素値の変化を示している。a)およびb)のいずれにおいても、各主成分についての3つの顔形状の中央のものは、平均的な画素値を示す。
この例では、主成分分析の結果、第1主成分としてはヒゲの有無に寄与する成分が抽出されており、重みづけ係数λ1を変化させることによって、a)左端に示すヒゲのない顔からa)右端に示すヒゲの濃い顔まで変化することがわかる。第2主成分としては眉の濃さに寄与する成分が抽出されており、重みづけ係数λ2を変化させることによって、b)左端に示すような眉が薄い顔から、b)右端に示すような眉が濃い顔まで変化することがわかる。
以上、図6から図9にかけて説明した処理によって、顔のモデルが生成される。このモデルは、顔形状を表す複数の固有ベクトルpiと、平均顔形状下での顔の画素値を表す固有ベクトルqiとによって、顔を表現する。モデルが有する各固有ベクトルの合計数は、顔画像を形成する画素数よりも大幅に少ない。なお、上記の例では、形状および画素値を顔形状とR,G,B色成分の画素値についての別個の重みづけ係数bi、λiによって、個別の顔画像を表現したが、顔形状と色成分の画素値のバリエーションには相関性があることから、特徴点および画素値の双方を含む特徴パラメータを主成分分析することもできる。
次に、モデル格納部270が格納しているモデルを用いて特徴領域に含まれる物体の画像を圧縮する処理の一例を説明する。パラメータ値算出部260は、特徴領域に含まれる入力顔画像を正規化して、平均顔形状化でのR,G,Bの色成分の画素値を算出する。なお、入力顔画像は、かならずしも正面からの画像でなかったり、照明条件がサンプル画像を撮像した場合の照明条件と異なる場合がある。したがって、ここでいう正規化とは、上記で説明した正面の顔の特徴点を揃える処理だけでなく、斜めから撮像されて得られた入力顔画像の向きを正面から撮像された顔画像に変換する変換処理であったり、照明による影の影響を除去したりする影除去処理等のように、サンプル画像と同等の撮影環境で撮像された顔画像に変換する処理を含む。
そして、パラメータ値算出部260は、平均顔に対する画素値との差を主成分ベクトルqiに射影することにより、重みづけ係数λiを算出する。具体的には、パラメータ値算出部260は、主成分ベクトルqiとの内積により重みづけ係数λiを算出することができる。また、パラメータ値算出部260は、顔の特徴点Sについても、上述した画素値Aの算出処理と同様の処理により算出する。具体的には、パラメータ値算出部260は、平均顔に対する特徴点の位置の差を主成分ベクトルpiに射影することにより重みづけ係数biを算出する。
以上説明したようにして、パラメータ値算出部260は、重みづけ係数biおよびλiを、特徴パラメータの値として算出することができる。次に、画像生成部380による高画質画像の生成処理について説明する。
画像生成部380は、取得した重みづけ係数λi、平均顔の画素値A0、および主成分ベクトルqiを用いて、平均顔形状下における画素値Aを算出する。また、画像生成部380は、取得した重みづけ係数bi、平均顔の特徴点S0、および主成分ベクトルpiを用いて、特徴点Aを算出する。そして、画像生成部380は、画素値Aおよび特徴点Aで表される画像に対して、上記の正規化処理のうち特徴点を揃える処理を除く処理の逆変換処理を施す。なお、上記の正規化処理の内容は、画像処理装置120から画像処理装置170に送信され、画像生成部380が上記逆変換処理をする場合に使用されてよい。
以上の処理により、画像生成部380は、出力部207から出力された撮像画像における特徴領域の画像から、当該撮像画像より高画質な高画質画像を生成する。具体的には、画像生成部380は、出力部207から出力された撮像画像における特徴領域の画像に比べて、より高解像度の画像、よりシャープな画像、よりノイズが少ない画像、より階調数の多い画像、あるいはより色数の多い画像を生成することができる。
図10は、モデル格納部270およびモデル格納部350が格納しているモデルの一例をテーブル形式で示す。モデル格納部270およびモデル格納部350は、複数の表情および複数の方向のそれぞれの組み合わせ毎に、モデルを格納している。表情としては、喜怒哀楽のそれぞれの状態にあるときの顔、および真顔を含み、方向としては、正面、上方、下方、右方、左方、および後方を含む。
パラメータ値算出部260は、特徴領域に含まれる顔画像の画像内容に基づいて顔の表情および顔の方向を特定して、特定した表情および方向の組み合わせに対応づけてモデル格納部270が格納しているモデルを用いて、上述の重みづけ係数を算出することができる。
なお、出力部207は、使用したモデルを識別する情報を画像処理装置170に送信してよい。そして、画像生成部380は、当該情報によって識別されるモデルを用いて、上述の再構成処理をすることができる。
なお、画像生成部380は、口および/または目の形状から表情を特定することができ、目、口、鼻、および耳の位置関係等から顔の方向を特定することができる。なお、画像処理装置120が顔の表情および顔の方向を特定してよく、出力部207から撮像画像に対応づけて顔の表情および顔の方向が出力されてよい。
また、モデル格納部270およびモデル格納部350は、顔の表情および向きの他に、上述したように照明条件に対応づけてモデルを格納してよい。例えば、モデル格納部270およびモデル格納部350は、照明強度および照明の方向に対応づけてモデルを格納してよい。そして、パラメータ値算出部260は、特徴領域に含まれる顔画像の画像内容に基づいて顔への照明条件を特定してよい。例えば、パラメータ値算出部260は、影の位置および大きさに基づいて、照明強度および照明方向を特定して、特定した照明強度および照明方向に対応づけてモデル格納部270が格納しているモデルを用いて、重みづけ係数を算出することができる。
なお、上記の例では、顔全体を表現するモデルの生成および当該モデルを用いた特徴パラメータ抽出および再構成過程を説明した。このような顔全体のモデルの他に、画像処理システム10は、顔の部位毎のモデルを用いることができる。他にも、画像処理システム10は、性別および/または人種毎の顔(あるいは顔の部位毎)のモデルを用いることができる。また、画像処理システム10は、人物のモデルの他に、車両、船舶等、画像処理システム10が監視対象とする物体の種別毎にモデルを格納することができる。そして画像生成部380は、種別に応じてモデルを選択して再構成することもできる。このような種別は、画像処理装置120において検出され、撮像画像に対応づけて画像処理装置170に送信されてよい。
以上説明したように、モデル格納部270およびモデル格納部350は、異なる種類の物体のモデルを、当該種類に対応づけて格納することができる。そして、特徴領域情報取得部360は、入力画像における特徴領域に撮像されている物体の種類を示す情報を取得する。そして、画像生成部380は、撮像画像における特徴領域に含まれる物体の画像を、特徴領域情報取得部360が取得した特徴領域に撮像されている物体の種類に対応づけてモデル格納部350が格納しているモデルに適応させることによって、高画質画像に変換する。
なお、上述したように、モデル格納部270およびモデル格納部350は、学習データの一例としてのモデルを、オブジェクトの種類を識別する情報の一例としての顔の部位(例えば、目、鼻、口など)毎に格納することができる。ここで、学習データとしては、上記モデルの他に、オブジェクトの多数のサンプル画像からそれぞれ抽出された、オブジェクトの画像の低周波成分および高周波成分を含んでよい。なお、複数のオブジェクトの種類のそれぞれについてオブジェクトの画像の低周波成分をK−means法等によってクラスタリングすることによって、複数のオブジェクトの種類のそれぞれにおいてオブジェクトの画像の低周波成分は複数のクラスタにクラスタリングされていてよい。また、各クラスタ毎に代表的な低周波成分(例えば、重心値)が定められていてよい。なお、モデル格納部270は、オブジェクトの画像の低周波成分に対応づけて高周波成分を特定する情報を記憶してよい。また、モデル格納部350は、高周波成分を特定する情報に対応づけて高周波成分を記憶してよい。
パラメータ値算出部260は、撮像画像に含まれるオブジェクトの画像から低周波成分を抽出する。そして、パラメータ値算出部260は、当該オブジェクの種類のオブジェクトのサンプル画像から抽出された低周波成分のクラスタのうち、抽出した低周波成分に適合する値が代表的な低周波成分として定められたクラスタを特定する。そして、パラメータ値算出部260は、特定したクラスタに含まれる低周波成分に対応づけてモデル格納部270が格納している高周波成分のクラスタを特定する情報を特定する。このようにして、パラメータ値算出部260は、撮像画像に含まれるオブジェクトから抽出された低周波成分に相関のある高周波成分のクラスタを特定することができる。パラメータ値算出部260が特定した高周波成分のクラスタを特定する情報は、特徴領域を特定する情報に対応づけて出力部207から出力される。
出力部207から出力されて画像取得部301が取得した高周波成分のクラスタを特定する情報は、対応付け解析部302で抽出され、特徴領域情報取得部360を通じて画像生成部380に供給される。画像生成部380は、当該高周波成分のクラスタを特定する情報に対応づけてモデル格納部350が格納している高周波成分のクラスタを代表する高周波成分を用いて、オブジェクトの画像をより高画質な画像に変換してよい。例えば、画像生成部380は、各オブジェクトの中心から顔上の処理対象位置までの距離に応じた重みでオブジェクト毎に選択された当該高周波成分をオブジェクトの画像に加算してよい。なお、当該代表する高周波成分は、閉ループ学習によって生成されてよい。このように、パラメータ値算出部260は、各オブジェクト毎に学習することによって生成された学習データの中から望ましい学習データをオブジェクト毎に選択することができる。このため、画像生成部380は、オブジェクト毎に選択された望ましい学習データを利用することができるので、オブジェクトの画像をより高い精度で高画質化することができる場合がある。なお、上記の例では、高周波成分のクラスタを特定する情報が出力部207から出力されるとしたが、低周波成分のクラスタを特定する情報が出力部207から出力されてもよい。この場合、モデル格納部350が当該低周波成分のクラスタを特定する情報に対応づけて高周波のクラスタを格納している。そして、画像生成部380は、出力部207から出力された低周波成分のクラスタを特定する情報に対応づけてモデル格納部350が格納している高周波成分のクラスタを代表する高周波成分をオブジェクトの画像に加算することによって、オブジェクトの画像を高画質化することができる。
以上のように、画像処理装置120および画像処理装置170によると、主成分分析(PCA)に基づいて特徴領域の画像を再構成することができる。なお、画像処理装置120および画像処理装置170に係わる画像再構成手法、および当該画像再構成用の学習法としては、主成分分析(PCA)による学習・画像再構成の他に、局所保存投影(locality preserving projection:LPP)、線形判別分析(Linear Discriminant Analysis:LDA)、独立成分分析(Independent component analysis:ICA)、多次元スケーリング(multidimensional scaling:MDS)、サポートベクターマシン(サポートベクター回帰)、ニューラルネットワーク、隠れマルコフモデル、Bayes推論、最大事後確率推定、反復逆投影、Wavelet変換、局所線形埋め込み(locally linear embedding:LLE)、マルコフランダム場(Markov random field:MRF)等の手法を用いることができる。
なお、上記の説明では、2次元のモデルを利用する場合を例に挙げて画像処理システム10の各構成要素の機能および動作を説明したが、画像処理システム10は、3次元のモデルを利用してもよい。すなわち、モデル格納部270およびモデル格納部350は、3次元のモデルを格納してよい。なお、3次元モデルを使用する場合には、上述のベクトルAに奥行きを示すz成分を追加することで実現することができる。例えば、ベクトルAを(r1,g1,b1,z1,r2,g2,b2,z1,・・・,rm,gm,bm、zm)とすることで、3次元のモデルを実現することができる。
なお、モデル格納部270およびモデル格納部350が格納する3次元モデルは、異なる方向から物体が撮像されて得られた複数のサンプル画像から生成された3次元画像を利用して生成することができる。例えば、複数の物体のそれぞれの3次元画像について、上述した2次元のモデルを生成する場合と同様の方法によって3次元モデルを生成することができる。そして、パラメータ値算出部260は、複数の撮像画像のそれぞれにおける特徴領域のうち、異なる方向から同じ物体が撮像されている画像を含む特徴領域を特定し、特定した特徴領域に含まれる当該物体の画像に基づく当該物体の3次元画像を3次元モデルに適応させることによって、特徴パラメータの値を算出する。なお、パラメータ値算出部260は、異なる方向から撮像された同じ物体の画像における視差情報に基づいて、当該物体の3次元画像を生成することができる。また、当該視差情報に基づいて、それぞれの特徴領域に含まれる物体の画像が撮影された方向が特定される。出力部207は、当該撮影方向を、特徴領域以外の領域の画像および特徴パラメータの値に対応づけて出力してよい。
そして、画像生成部380は、異なる方向から同じ物体が撮像されている画像を含む特徴領域の画像に含まれる物体の3次元画像を、特徴パラメータの値に基づいて3次元モデルから生成し、生成した3次元画像に基づいて、特徴領域の画像に含まれる物体の2次元画像を生成する。なお、特徴領域情報取得部360は、出力部207から出力されて画像取得部301が取得した撮影方向を取得して、取得した撮影方向を画像生成部380に供給する。画像生成部380は、当該撮影方向および3次元画像に基づいて2次元空間に投影することによって、物体の2次元画像を生成することができる。そして、出力部340は、画像生成部380により生成された2次元画像と画像取得部301が取得した特徴領域以外の領域の画像とを合成した画像を出力する。なお、上記撮影方向は、3次元画像から2次元画像を生成する場合に用いられる方向情報の一例であり、方向情報は、3次元データを2次元空間に投影する投影角度であってよい。
また、撮像画像に含まれている物体の画像と、平均画像(例えば、平均顔画像)との間の差が予め定められた値より大きい場合には、圧縮部230が特徴領域の画像を圧縮してよい。これにより、特徴領域に含まれる物体の画像が平均画像から大きく乖離している場合に、再構成精度が著しく低下してしまうことを未然に防ぐことができる。
図11は、他の実施形態に係る画像処理システム20の一例を示す。本実施形態における画像処理システム20の構成は、撮像装置100a−dがそれぞれ画像処理部804a−d(以下、画像処理部804と総称する。)を有する点を除いて、図1で説明した画像処理システム10の構成と同じとなっている。
画像処理部804は、画像処理装置120に含まれる構成要素のうち、画像取得部250を除く構成要素を有している。そして、画像処理部804に含まれる各構成要素の機能および動作は、画像処理装置120に含まれる各構成要素が圧縮動画伸張部202による伸張処理によって得られた撮像動画を処理することに替えて、撮像部102によって撮像された撮像動画を処理するという点を除いて、画像処理装置120に含まれる各構成要素の機能および動作と略同一であってよい。このような構成の画像処理システム20においても、図1から図10にかけて画像処理システム10に関連して説明した効果と略同一の効果が得ることができる。
なお、画像処理部804は、撮像部102からRAW形式で表された複数の撮像画像を含む撮像動画を取得して、取得した撮像動画に含まれるRAW形式で表された複数の撮像画像(例えば、特徴領域以外の領域の画像)をRAW形式のまま圧縮してよい。なお、画像処理部804は、RAW形式で表された複数の撮像画像から1以上の特徴領域を検出してよい。また、画像処理部804は、圧縮されたRAW形式の複数の撮像画像を含む撮像動画を圧縮してよい。なお、画像処理部804は、撮像動画を、図1〜図11に関連して画像処理装置120の動作として説明した圧縮方法で圧縮することができる。なお、画像処理装置170は、画像処理部804から取得した動画を伸張することにより、RAW形式で表された複数の撮像画像(例えば、特徴領域以外の領域の画像)を取得することができる。画像処理装置170は、伸張することにより取得されたRAW形式で表された複数の撮像画像をそれぞれ領域毎に拡大して、領域毎に同時化処理を施す。このとき、画像処理装置170は、特徴領域以外の領域より、特徴領域においてより高精度な同時化処理を施してよい。
図12は、画像処理装置120および画像処理装置170のハードウェア構成の一例を示す。画像処理装置120および画像処理装置170は、CPU周辺部と、入出力部と、レガシー入出力部とを備える。CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示デバイス1580を有する。入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD−ROMドライブ1560を有する。レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有する。
ホスト・コントローラ1582は、RAM1520と、より高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムの内容に応じて動作して、各部の制御をする。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。
入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理装置120および画像処理装置170が起動するときに実行するブート・プログラム、あるいは画像処理装置120および画像処理装置170のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、あるいはパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
CPU1505が実行するプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。CPU1505により実行されるプログラムは、画像処理装置120を、図1から図11に関連して説明した画像処理装置120が有する各構成要素として機能させ、画像処理装置170を、図1から図11に関連して説明した、画像処理装置170が有する各構成要素として機能させる。
以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDまたはPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用して、ネットワークを介したプログラムとして画像処理装置120および画像処理装置170に提供してもよい。このように、プログラムにより制御されるコンピュータが、画像処理装置120および画像処理装置170として機能する。
以上、この発明を実施の形態を用いて説明したが、この発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態もこの発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。