WO2009125578A1 - 画像処理システム、画像処理方法、およびコンピュータ読取可能な媒体 - Google Patents

画像処理システム、画像処理方法、およびコンピュータ読取可能な媒体 Download PDF

Info

Publication number
WO2009125578A1
WO2009125578A1 PCT/JP2009/001599 JP2009001599W WO2009125578A1 WO 2009125578 A1 WO2009125578 A1 WO 2009125578A1 JP 2009001599 W JP2009001599 W JP 2009001599W WO 2009125578 A1 WO2009125578 A1 WO 2009125578A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
feature
unit
captured
area
Prior art date
Application number
PCT/JP2009/001599
Other languages
English (en)
French (fr)
Inventor
亀山 祐和
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2008100747A external-priority patent/JP5337970B2/ja
Priority claimed from JP2008100746A external-priority patent/JP5337969B2/ja
Priority claimed from JP2009091518A external-priority patent/JP2009273117A/ja
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2009125578A1 publication Critical patent/WO2009125578A1/ja
Priority to US12/899,373 priority Critical patent/US8447128B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/12Selection from among a plurality of transforms or standards, e.g. selection between discrete cosine transform [DCT] and sub-band transform or selection between H.263 and H.264
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

 高画質画像を生成するのに要する演算時間を削減することができる画像処理システムを提供する。画像処理システムは、撮像された入力画像を取得する画像取得部と、入力画像における特徴領域を示す情報を取得する特徴領域情報取得部と、特徴パラメータで物体が表現されたモデルを格納するモデル格納部と、入力画像における特徴領域に含まれる物体の画像をモデルに適応させることによって、入力画像における特徴領域に含まれる物体の画像を、入力画像より高画質な高画質画像に変換する画像生成部と、画質画像および特徴領域以外の画像を含む画像を出力する出力部とを備える。

Description

画像処理システム、画像処理方法、およびコンピュータ読取可能な媒体
 本発明は、画像処理システム、画像処理方法、およびコンピュータ読取可能な媒体に関する。本出願は、下記の日本出願に関連し、下記の日本出願からの優先権を主張する出願である。文献の参照による組み込みが認められる指定国については、下記の出願に記載された内容を参照により本出願に組み込み、本出願の一部とする。
 1.特願2008-099322  出願日 2008年4月7日
 2.特願2008-100746  出願日 2008年4月8日
 3.特願2008-100747  出願日 2008年4月8日
 4.特願2009-091518  出願日 2009年4月3日
 低解像度映像入力装置で得る低解像度映像などを高解像度映像入力装置で得ることができる水準の画質に再構成及び復元するとされる再構成方法が知られている(例えば、特許文献1参照。)。また、既存の監視映像記録システムで使用するカメラなどの装置をそのまま使い、処理時間を抑えながら被写体の詳細が確認可能な高画質な画像を生成する監視映像記録システムが知られている(例えば、特許文献2参照。)。
 また、三次元の顔モデルと固有顔の分解とを用いて顔の影像を符号化および復号する方法が知られている(例えば、特許文献1参照。)。また、主画像と主画像における口の部分の変化を表す複数の副画像とをあらかじめ送信して、その後に、動画像を再生するために上記複数の副画像のいずれを選択して上記主画像に組み合わせるかを指定する符号語を送信する画像符号化装置が知られている(例えば、特許文献2参照。)。
特開2005-20761号公報 特開2005-150808号公報 特開平10-228544号公報 特許第2753599号明細書
 全画像領域を再構成あるいは高画質化すると、それらの処理にかかる演算量が増大してしまう。
 上記課題を解決するために、本発明の第1の形態によると、画像処理システムであって、撮像された入力画像を取得する画像取得部と、入力画像における特徴領域を示す情報を取得する特徴領域情報取得部と、特徴パラメータで物体が表現されたモデルを格納するモデル格納部と、入力画像における特徴領域に含まれる物体の画像をモデルに適応させることによって、入力画像における特徴領域に含まれる物体の画像を、入力画像より高画質な高画質画像に変換する画像生成部と、画質画像および特徴領域以外の画像を含む画像を出力する出力部とを備える。
 物体が特徴パラメータで表現された第2モデルを格納する第2モデル格納部と、撮像画像から特徴領域を検出する特徴領域検出部と、撮像画像における特徴領域の画像に含まれる物体の画像を、第2モデル格納部が格納している第2モデルに適応させることによって、撮像画像における特徴領域の画像に含まれる物体を表す、第2モデルにおける特徴パラメータの値を算出するパラメータ値算出部と、パラメータ値算出部が算出した特徴パラメータの値および撮像画像における特徴領域以外の領域の画像を出力する中間出力部と、中間出力部から出力された特徴パラメータの値および画質が低減された撮像画像における特徴領域以外の領域の画像を取得する中間画像取得部と、撮像画像における特徴領域の画像に含まれる物体の画像を、特徴パラメータの値に基づいて第2モデルから生成する中間画像生成部と、第2モデルから生成された物体の画像と中間画像取得部が取得した特徴領域以外の領域の画像とを合成した画像を出力する画像出力部とをさらに備え、画像取得部は、画像出力部が出力した画像を入力画像として取得してよい。
 画像取得部は、複数の動画構成画像を含む入力動画を取得し、特徴領域情報取得部は、複数の動画構成画像のそれぞれにおける特徴領域の位置を示す情報を取得し、画像処理システムは、複数の動画構成画像のそれぞれにおける特徴領域のうち、予め定めた値より高い相関を有する第1特徴領域および第2特徴領域を選択する特徴領域選択部をさらに備え、画像生成部は、第1特徴領域に含まれる物体の画像および第2特徴領域に含まれる物体の画像を、それぞれモデルに適応させることによって、それぞれ第1高画質画像および第2高画質画像に変換し、第1高画質画像、第2高画質画像、および第1特徴領域と第2特徴領域との間の位置差を用いて、第1特徴領域に含まれる物体の画像および第2特徴領域に含まれる物体の画像より高解像度な高画質画像を生成してよい。
 本発明の第2の形態によると、方法であって、物体が撮像された入力画像を取得する画像取得段階と、入力画像における特徴領域を示す情報を取得する特徴領域情報取得段階と、特徴パラメータで物体が表現されたモデルを格納するモデル格納段階と、入力画像における特徴領域に含まれる物体の画像をモデルに適応させることによって、入力画像における特徴領域に含まれる物体の画像を、入力画像より高画質な高画質画像に変換する画像生成段階と、高画質画像および特徴領域以外の画像を含む画像を出力する出力段階とを備える。
 本発明の第3の形態によると、画像処理システム用のプログラムを記憶するコンピュータ読取可能な媒体であって、該プログラムは、コンピュータを、物体が撮像された入力画像を取得する画像取得部、入力画像における特徴領域を示す情報を取得する特徴領域情報取得部、特徴パラメータで物体が表現されたモデルを格納するモデル格納部、入力画像における特徴領域に含まれる物体の画像をモデルに適応させることによって、入力画像における特徴領域に含まれる物体の画像を、入力画像より高画質な高画質画像に変換する画像生成部高画質画像および特徴領域以外の画像を含む画像を出力する出力部として機能させる。
 なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
一実施形態に係わる画像処理システム10の一例を示す図である。 画像処理装置120のブロック構成の一例を示す図である。 圧縮部230のブロック構成の一例を示す図である。 画像処理装置170のブロック構成の一例を示す図である。 圧縮部230の他のブロック構成の一例を示す図である。 画像処理システム10による背景領域に対する処理の一例を示す図である。 中間画像生成部233における中間画像生成処理の一例を示す図である。 特徴領域選択部370による特徴領域の選択処理の一例を示す図である。 人間の顔における特徴点の一例を示す図である。 重みづけ係数bを変化させた場合の顔形状の変化の一例を模式的に示す図である。 サンプル画像を平均顔形状に変換して得られた画像の一例を示す図である。 重みづけ係数qを変化させた場合の画素値の変化の一例を模式的に示す図である。 モデル格納部350が格納しているモデルの一例をテーブル形式で示す図である。 他の実施形態に係る画像処理システム20の一例を示す図である。 一実施形態に係わる画像処理システム2010の一例を示す図である。 画像処理装置2120のブロック構成の一例を示す図である。 圧縮部2230のブロック構成の一例を示す図である。 画像処理装置2170のブロック構成の一例を示す図である。 圧縮部2230の他のブロック構成の一例を示す図である。 人間の顔における特徴点の一例を示す図である。 重みづけ係数bを変化させた場合の顔形状の変化の一例を模式的に示す図である。 サンプル画像を平均顔形状に変換して得られた画像の一例を示す図である。 重みづけ係数qを変化させた場合の画素値の変化の一例を模式的に示す図である。 モデル格納部2270およびモデル格納部2350が格納しているモデルの一例をテーブル形式で示す図である。 他の実施形態に係る画像処理システム2020の一例を示す図である。 画像処理装置120、画像処理装置170、画像処理装置2120、画像処理装置2170として機能するコンピュータ1500のハードウェア構成の一例を示す図である。
10 画像処理システム、20 画像処理システム、100 撮像装置、102 撮像部、104 撮像画像圧縮部、110 通信ネットワーク、120 画像処理装置、130 人物、140 移動体、150 監視対象空間、160 空間、170 画像処理装置、175 画像DB、180 表示装置、201 圧縮動画取得部、202 圧縮動画伸張部、203 特徴領域検出部、204 画質取得部、206 対応付け処理部、207 出力部、210 圧縮制御部、230 圧縮部、232 画像分割部、233 中間画像生成部、234 固定値化部、236 圧縮処理部、240 画質変換ユニット、241 画質変換部、250 画像取得部、260 位置差算出部、301 画像取得部、302 対応付け解析部、310 伸張制御部、320 伸張部、322 復号器、330 合成部、332 拡大部、340 出力部、350 モデル格納部、360 特徴領域情報取得部、370 特徴領域選択部、372 照明条件特定部、374 方向特定部、376 相関値取得部、380 画像生成部、503 中間画像生成部、510 画質変換部、520 差分処理部、522 階層間差分処理部、530 符号化部、532 符号器、610 撮像画像、611 頭部領域、620 縮小画像、630 拡大画像、631 画像、710 撮像画像、711 頭部領域、721 車両領域、750 画素値波形、760 画素値波形、804 画像処理部、2010 画像処理システム、2020 画像処理システム、2100 撮像装置、2102 撮像部、2104 撮像画像圧縮部、2110 通信ネットワーク、2120 画像処理装置、2130 人物、2140 移動体、2150 監視対象空間、2160 空間、2170 画像処理装置、2175 画像DB、2180 表示装置、2201 圧縮動画取得部、2202 圧縮動画伸張部、2203 特徴領域検出部、2206 対応付け処理部、2207 出力部、2210 圧縮制御部、2230 圧縮部、2232 画像分割部、2234 固定値化部、2236 圧縮処理部、2240 画質変換ユニット、2241 画質変換部、2250 画像取得部、2260 パラメータ値算出部、2270 モデル格納部、2280 パラメータ量子化部、2301 画像取得部、2302 対応付け解析部、2310 伸張制御部、2320 伸張部、2322 復号器、2330 合成部、2332 拡大部、2340 出力部、2350 モデル格納部、2360 特徴領域情報取得部、2380 画像生成部、2510 画質変換部、2520 差分処理部、2522 階層間差分処理部、2530 符号化部、2532 符号器、2804 画像処理部、1505 CPU、1510 ROM、1520 RAM、1530 通信インターフェイス、1540 ハードディスクドライブ、1550 フレキシブルディスク・ドライブ、1560 CD-ROMドライブ、1570 入出力チップ、1575 グラフィック・コントローラ、1580 表示デバイス、1582 ホスト・コントローラ、1584 入出力コントローラ、1590 フレキシブルディスク、1595 CD-ROM、1598 ネットワーク通信装置
 以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
 図1は、一実施形態に係わる画像処理システム10の一例を示す。画像処理システム10は、以下に説明するように、監視システムとして機能することができる。
 画像処理システム10は、監視対象空間150を撮像する複数の撮像装置100a-d(以下、撮像装置100と総称する。)、撮像装置100により撮像された撮像画像を処理する画像処理装置120、通信ネットワーク110、画像処理装置170、画像DB175、および複数の表示装置180a-d(以下、表示装置180と総称する。)を備える。画像処理装置170および表示装置180は、監視対象空間150と異なる空間160に設けられている。
 撮像装置100aは、撮像部102aおよび撮像画像圧縮部104aを有している。撮像部102aは、連続して監視対象空間150を撮像することによって複数の撮像画像を撮像する。なお、撮像部102aにより得られる撮像画像は、RAW形式の撮像画像であってよい。撮像画像圧縮部104aは、撮像部102aにより撮像されたRAW形式の撮像画像を同時化して、同時化して得られた複数の撮像画像を含む撮像動画をMPEG符号化等により圧縮して、撮像動画データを生成する。このように、撮像装置100aは、監視対象空間150を撮像して得られた撮像動画を符号化して撮像動画データを生成する。撮像装置100aは、当該撮像動画データを画像処理装置120に出力する。
 なお、撮像装置100b、撮像装置100c、および撮像装置100dは、それぞれ撮像装置100aと同様の構成を有するので、撮像装置100b、撮像装置100c、および撮像装置100dの各構成要素の説明を省略する。このようにして、画像処理装置120は、複数の撮像装置100のそれぞれにより生成された撮像動画データを、複数の撮像装置100のそれぞれから取得する。
 そして、画像処理装置120は、撮像装置100から取得した撮像動画データを復号して撮像動画を取得する。画像処理装置120は、取得した撮像動画に含まれる複数の撮像画像のそれぞれから、人物130が撮像された領域、車輌等の移動体140が撮像された領域等のように、特徴の種類が異なる複数の特徴領域を検出する。そして、画像処理装置120は、特徴の種類に応じた強度で特徴領域の画像を圧縮するとともに、特徴領域以外の領域の画像を、それぞれの特徴領域の画像を圧縮する圧縮強度より強い強度で圧縮する。
 なお、画像処理装置120は、撮像画像における特徴領域以外の領域である背景領域を、特徴領域より小さく縮小する。このとき、画像処理装置120は、複数の撮像画像の間における背景領域の位置ずれを、縮小前の撮像画像から算出する。
 そして、画像処理装置120は、撮像画像から検出された特徴領域を特定する情報および位置ずれを示す情報を含む特徴領域情報を生成する。そして、画像処理装置120は、特徴領域情報を圧縮動画データに付帯して、通信ネットワーク110を通じて画像処理装置170に送信する。
 画像処理装置170は、特徴領域情報が対応づけられた圧縮動画データを画像処理装置120から受信する。そして、画像処理装置170は、受信した圧縮動画データを、対応づけられている特徴領域情報を用いて伸張して表示用動画を生成して、生成した表示用動画を表示装置180に供給する。表示装置180は、画像処理装置170から供給された表示用動画を表示する。
 なお、画像処理装置170は、縮小された背景領域の画像を拡大して、拡大された背景領域の画像を、画像処理装置120によって検出された位置ずれだけずらして重ね合わせる。このように、画像処理装置170は、複数の撮像画像における縮小された背景領域の画像を用いて、高解像度化された背景領域の画像を生成する。また、画像処理装置170は、特徴領域においても、画像処理装置120によって検出された特徴領域の位置の差を用いて、特徴領域の画像を高解像度化する。また、画像処理装置170は、撮像画像における特徴領域の画像に撮像されている物体像を、特徴パラメータで物体が表された数学モデルに適合させることによって、高解像度化してもよい。
 また、画像処理装置170は、圧縮動画データに対応づけられている特徴領域情報に対応づけて、当該圧縮動画データを画像DB175に記録してもよい。そして、画像処理装置170は、表示装置180からの要求に応じて、画像DB175から圧縮動画データおよび特徴領域情報を読み出して、読み出した圧縮動画データを、特徴領域情報を利用して伸張して表示用動画を生成して、表示装置180に供給してもよい。
 なお、特徴領域情報は、特徴領域の位置、特徴領域の大きさ、特徴領域の数、特徴領域が検出された撮像画像を識別する識別情報等を含むテキストデータ、もしくは当該テキストデータに圧縮、暗号化等の処理が施されたデータであってよい。そして、画像処理装置170は、特徴領域情報が含む特徴領域の位置、特徴領域の大きさ、特徴領域の数等に基づいて、種々の検索条件を満たす撮像画像を特定する。そして、画像処理装置170は、特定した撮像画像を復号して、表示装置180に提供してよい。
 このように、画像処理システム10によると、特徴領域を動画に対応づけて記録しているので、動画における所定の条件に適合する撮像画像群を高速に検索、頭出しをすることができる。また、画像処理システム10によると、所定の条件に適合する撮像画像群だけ復号することができるので、再生指示に即応して速やかに所定の条件に適合する部分動画を表示することができる。
 図2は、画像処理装置120のブロック構成の一例を示す。画像処理装置120は、画像取得部250、画質取得部204、特徴領域検出部203、位置差算出部260、圧縮制御部210、圧縮部230、対応付け処理部206、および出力部207を備える。画像取得部250は、圧縮動画取得部201および圧縮動画伸張部202を有する。
 圧縮動画取得部201は、圧縮された動画を取得する。具体的には、圧縮動画取得部201は、撮像装置100が生成した、符号化された撮像動画データを取得する。圧縮動画伸張部202は、圧縮動画取得部201が取得した撮像動画データを伸張して、撮像動画に含まれる複数の撮像画像を生成する。具体的には、圧縮動画伸張部202は、圧縮動画取得部201が取得した、符号化された撮像動画データを復号して、撮像動画に含まれる複数の撮像画像を生成する。なお、撮像動画に含まれる撮像画像は、フレーム画像およびフィールド画像であってよい。なお、本実施形態における撮像画像は、この発明における動画構成画像の一例であってよい。このように、画像取得部250は、複数の撮像装置100のそれぞれにより撮像された複数の動画を取得する。
 圧縮動画伸張部202によって得られた複数の撮像画像は、特徴領域検出部203および圧縮部230に供給される。特徴領域検出部203は、複数の撮像画像を含む動画から特徴領域を検出する。具体的には、特徴領域検出部203は、複数の撮像画像のそれぞれから特徴領域を検出する。なお、上記における撮像動画は、以下の説明における動画の一例であってよい。
 例えば、特徴領域検出部203は、動画において画像内容が変化する画像領域を、特徴領域として検出する。具体的には、特徴領域検出部203は、動くオブジェクトを含む画像領域を、特徴領域として検出してよい。なお、特徴領域検出部203は、複数の撮像画像のそれぞれから、特徴の種類が異なる複数の特徴領域を検出してよい。なお、特徴の種類とは、人物と移動体等のように、オブジェクトの種類を指標にしてよい。オブジェクトの種類は、オブジェクトの形状またはオブジェクトの色の一致度に基づいて決定されてよい。このように、特徴領域検出部203は、複数の撮像画像から、含まれるオブジェクトの種類が異なる複数の特徴領域を検出してよい。
 例えば、特徴領域検出部203は、予め定められた形状パターンに予め定められた一致度以上の一致度で一致するオブジェクトを複数の撮像画像のそれぞれから抽出して、抽出したオブジェクトを含む撮像画像における領域を、特徴の種類が同じ特徴領域として検出してよい。なお、形状パターンは、特徴の種類毎に複数定められてよい。また、形状パターンの一例としては、人物の顔の形状パターンを例示することができる。なお、複数の人物毎に異なる顔のパターンが定められてよい。これにより、特徴領域検出部203は、異なる人物をそれぞれ含む異なる領域を、異なる特徴領域として検出することができる。なお、特徴領域検出部203は、上記の人物の顔の他にも、人物の頭部または人物の手等の人体の一部の部位、あるいは人体以外の生体の少なくとも一部の部位を含む領域を、特徴領域として検出することができる。なお、生体とは、生体内部の腫瘍組織または血管等のように、生体の内部に存在する特定の組織を含む。他にも、特徴領域検出部203は、生体の他にも、貨幣、キャッシュカード等のカード、車輌、あるいは車両のナンバープレートが撮像された領域を特徴領域として検出してよい。
 また、特徴領域検出部203は、テンプレートマッチング等によるパターンマッチングの他にも、例えば特開2007-188419号公報に記載された機械学習(例えば、アダブースト)等による学習結果に基づいて、特徴領域を検出することもできる。例えば、予め定められた被写体の画像から抽出された画像特徴量と、予め定められた被写体以外の被写体の画像から抽出された画像特徴量とを用いて、予め定められた被写体の画像から抽出された画像特徴量の特徴を学習する。そして、特徴領域検出部203は、当該学習された特徴に適合する特徴を有する画像特徴量が抽出された領域を、特徴領域として検出してよい。これにより特徴領域検出部203は、予め定められた被写体が撮像されている領域を特徴領域として検出することができる。
 このように、特徴領域検出部203は、複数の動画のそれぞれに含まれる複数の撮像画像から、複数の特徴領域を検出する。そして、特徴領域検出部203は、検出した特徴領域を示す情報を、圧縮制御部210に供給する。なお、特徴領域を示す情報とは、特徴領域の位置を示す特徴領域の座標情報、特徴領域の種類を示す種類情報、および特徴領域が検出された撮像動画を識別する情報を含む。このように、特徴領域検出部203は、動画における特徴領域を検出する。
 位置差算出部260は、動画に含まれる複数の撮像画像の間におけるオブジェクトの位置差を算出する。そして、位置差算出部260は、検出した位置差を対応付け処理部206に供給する。なお、特徴領域検出部203は、特徴領域の位置を、画像取得部250が取得した撮像画像におけるサブピクセル単位で検出してよい。これにより、位置差算出部260はサブピクセル単位で位置差を算出することができる。
 圧縮制御部210は、特徴領域検出部203から取得した特徴領域を示す情報に基づいて、特徴領域に応じて圧縮部230による動画の圧縮処理を制御する。なお、圧縮部230は、撮像画像における特徴領域と撮像画像における特徴領域以外の領域とで異なる強度で圧縮することにより、撮像画像を圧縮してよい。例えば、圧縮部230は、動画に含まれる撮像画像における特徴領域以外の領域の解像度を低解像度化することにより撮像画像を圧縮する。このように、圧縮部230は、撮像画像における各画像領域のそれぞれを重要度に応じた強度で圧縮する。なお、圧縮部230のより具体的な内部の圧縮動作については、後に説明する。
 なお、画質取得部204は、特徴領域の特徴に対応づけて画質を取得する。具体的には、画質取得部204は、画像処理装置120の外部から、特徴領域の特徴に対応づけて画質を取得してよい。より具体的には、画質取得部204は、画像処理装置120の外部から、特徴領域の種類に対応づけて画質を取得する。なお、画質としては、解像度、階調数、ダイナミックレンジ、または含まれる色数を例示することができる。画質取得部204が取得した画質情報は、圧縮制御部210を通じて圧縮部230に供給される。そして、圧縮部230は、撮像画像における複数の特徴領域の画像の画質を、それぞれの特徴領域の特徴に対応づけて画質取得部204が取得した画質に低減する。
 対応付け処理部206は、撮像画像から検出された特徴領域を特定する情報および位置差算出部260によって検出された位置差を示す情報を、撮像画像に対応づける。具体的には、対応付け処理部206は、撮像画像から検出された特徴領域を特定する情報および位置差算出部260によって検出された位置差を示す情報を、撮像画像を動画構成画像として含む圧縮動画に対応づける。そして、出力部207は、対応付け処理部206によって特徴領域を特定する情報および位置差を特定する情報が対応付けされた圧縮動画を、画像処理装置170に出力する。このように、圧縮部230は、撮像画像における複数の特徴領域の画像の画質を、画質取得部204がそれぞれの特徴領域の特徴に対応づけて取得した画質に低減することにより、画像処理装置170に入力される撮像画像を生成する。
 図3は、圧縮部230のブロック構成の一例を示す。圧縮部230は、画像分割部232、中間画像生成部233、複数の固定値化部234a-c(以下、固定値化部234と総称する場合がある。)、複数の画質変換部241a-d(以下、画質変換部241と総称する。)を含む画質変換ユニット240、および複数の圧縮処理部236a-d(以下、圧縮処理部236と総称する場合がある。)を有する。
 画像分割部232は、画像取得部250から複数の撮像画像を取得する。そして、画像分割部232は、複数の撮像画像を、特徴領域と、特徴領域以外の背景領域とに分割する。具体的には、画像分割部232は、複数の撮像画像を、複数の特徴領域のそれぞれと、特徴領域以外の背景領域とに分割する。このように、画像分割部232は、複数の撮像画像のそれぞれを、特徴領域と背景領域とに分割する。
 そして、圧縮処理部236は、特徴領域の画像である特徴領域画像と背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する。具体的には、圧縮処理部236は、特徴領域画像を複数含む特徴領域動画と背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する。
 具体的には、画像分割部232は、複数の撮像画像を分割することにより、複数の特徴の種類毎に特徴領域動画を生成する。そして、固定値化部234は、特徴の種類毎に生成された複数の特徴領域動画に含まれる特徴領域画像のそれぞれについて、それぞれの特徴の種類の特徴領域以外の領域の画素値を固定値化する。具体的には、固定値化部234は、特徴領域以外の領域の画素値を予め定められた画素値にする。
 中間画像生成部233は、複数の撮像画像のうちの一部の撮像画像における背景領域の画像から、背景領域の画像を表す中間画像を生成する。なお、中間画像生成部233は、他の撮像画像における背景領域の画素位置の間の位置における画素値に基づく中間画像を、一部の撮像画像における背景領域の画像および位置差算出部260が算出した位置差に基づいて生成する。なお、中間画像生成部233は、一部の撮像画像から中間画像を生成して画質変換部241dに供給する一方、他の撮像画像については中間画像を生成せずに画質変換部241dに供給する。なお、中間画像生成部233による中間画像の生成方法については後述する。
 画質変換部241は、特徴領域の画像および背景領域の画像の画質を変換する。例えば、画質変換部241は、分割された特徴領域の画像および背景領域の画像のそれぞれについて、解像度、階調数、ダイナミックレンジ、または含まれる色数の少なくともいずれかを変換する。そして、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類毎に、複数の特徴領域動画をMPEG圧縮する。
 なお、固定値化部234a、固定値化部234b、および固定値化部234cは、それぞれ第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を固定値化する。また、画質変換部241a、画質変換部241b、画質変換部241c、および画質変換部241dは、それぞれ第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、第3の特徴の種類の特徴領域動画、および背景領域動画の画質を変換する。そして、圧縮処理部236a、圧縮処理部236b、圧縮処理部236c、および圧縮処理部236dは、第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、第3の特徴の種類の特徴領域動画、および背景領域動画を圧縮する。
 なお、圧縮処理部236a-cは、特徴の種類に応じて予め定められた強度で特徴領域動画を圧縮する。例えば、圧縮処理部236は、特徴の種類に応じて予め定められた異なる解像度に特徴領域動画を変換して、変換した特徴領域動画を圧縮してよい。他にも、圧縮処理部236は、MPEG符号化により特徴領域動画を圧縮する場合には、特徴の種類に応じて予め定められた異なる量子化パラメータで特徴領域動画を圧縮してよい。
 なお、圧縮処理部236dは、背景領域動画を圧縮する。なお、圧縮処理部236dは、圧縮処理部236a-cのいずれによる強度より高い強度で背景領域動画を圧縮してよい。圧縮処理部236によって圧縮された特徴領域動画および背景領域動画は、対応付け処理部206に供給される。
 なお、特徴領域以外の領域が固定値化部234によって固定値化されているので、圧縮処理部236がMPEG符号化等によって予測符号化する場合に、特徴領域以外の領域において予測画像との間の画像の差分量を著しく低減することができる。したがって、特徴領域動画の圧縮率を著しく高めることができる。
 このように、圧縮部230は、撮像画像の画質を低減することにより、画像処理装置170への入力画像となる画像を生成する。具体的には、圧縮部230は、撮像画像の解像度、階調数、用いられる色の数を低減したりすることにより、画像処理装置170への入力画像となる画像を生成する。また、圧縮部230は、一例として、撮像画像におけるより高い空間周波数成分をより低減することにより、画像処理装置170への入力画像となる画像を生成してよい。
 なお、本図では、圧縮部230が有する複数の圧縮処理部236のそれぞれが複数の特徴領域の画像および背景領域の画像をそれぞれ圧縮したが、他の形態では、圧縮部230は一の圧縮処理部236を有してよく、一の圧縮処理部236が、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で圧縮してよい。例えば、複数の特徴領域の画像および背景領域の画像が一の圧縮処理部236に時分割で順次供給され、一の圧縮処理部236が、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で順次圧縮してよい。
 他にも、一の圧縮処理部236は、複数の特徴領域の画像情報および背景領域の画像情報を異なる量子化係数でそれぞれ量子化することによって、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で圧縮してよい。また、複数の特徴領域の画像および背景領域の画像がそれぞれ異なる画質の画像に変換された画像が一の圧縮処理部236に供給され、一の圧縮処理部236が、複数の特徴領域の画像および背景領域の画像をそれぞれ圧縮してよい。なお、当該画質変換処理は、一の画質変換ユニット240でなされてよい。また、上記のように一の圧縮処理部236が領域毎に異なる量子化係数で量子化したり、領域毎に異なる画質に変換された画像を一の圧縮処理部236が圧縮する形態では、一の圧縮処理部236は、一の画像を圧縮してもよく、本図で説明したように画像分割部232によって分割された画像をそれぞれ圧縮してもよい。なお、一の圧縮処理部236が一の画像を圧縮する場合には、画像分割部232による分割処理および固定値化部234による固定値化処理はなされなくてよいので、圧縮部230は、画像分割部232および固定値化部234を有しなくてよい。
 図4は、画像処理装置170のブロック構成の一例を示す。画像処理装置170は、画像取得部301、対応付け解析部302、伸張制御部310、伸張部320、画像生成部380、特徴領域情報取得部360、特徴領域選択部370、照明条件特定部372、方向特定部374、相関値取得部376、モデル格納部350、出力部340を備える。画像生成部380は、拡大部332および合成部330を有する。
 画像取得部301は、圧縮部230により圧縮された圧縮動画を取得する。具体的には、画像取得部301は、複数の特徴領域動画および背景領域動画を含む圧縮動画を取得する。より具体的には、画像取得部301は、特徴領域情報が付帯された圧縮動画を取得する。なお、圧縮動画は、画像処理装置170への入力動画の一例であってよい。また、圧縮動画に動画構成画像として含まれる撮像画像は、画像処理装置170への入力画像の一例であってよい。このように、このように、画像取得部301は、圧縮部230により低画質化された撮像画像を入力画像として取得する。
 そして、対応付け解析部302は、圧縮動画を複数の特徴領域動画および背景領域動画と特徴領域情報とに分離して、複数の特徴領域動画および背景領域動画を伸張部320に供給する。また、対応付け解析部302は、特徴領域情報を解析して、特徴領域の位置および特徴の種類を伸張制御部310および特徴領域情報取得部360に供給する。このようにして、特徴領域情報取得部360は、複数の撮像画像のそれぞれにおける特徴領域を示す情報、例えば特徴領域の位置を示す情報を取得することができる。
 伸張制御部310は、対応付け解析部302から取得した特徴領域の位置および特徴の種類に応じて、伸張部320による伸張処理を制御する。例えば、伸張制御部310は、特徴領域の位置および特徴の種類に応じて圧縮部230が動画の各領域を圧縮した圧縮方式に応じて、伸張部320に圧縮動画が示す動画の各領域を伸張させる。
 以下に、伸張部320が有する各構成要素の動作を説明する。伸張部320は、複数の復号器322a-d(以下、復号器322と総称する。)を有する。復号器322は、符号化された複数の特徴領域動画および背景領域動画のいずれかを復号する。具体的には、復号器322a、復号器322b、復号器322c、および復号器322dは、それぞれ第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画を復号する。伸張部320は、復号して得られた第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画を、画像生成部380に供給する。
 画像生成部380は、第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画、特徴領域情報に基づいて一の表示動画を生成する。そして、出力部340は、対応付け解析部302から取得した特徴領域情報および表示動画を表示装置180または画像DB175に出力する。なお、画像DB175は、特徴領域情報が示す特徴領域の位置、特徴領域の特徴の種類、特徴領域の数を、表示動画に含まれる撮像画像を識別する情報に対応づけて、ハードディスク等の不揮発性の記録媒体に記録してよい。
 特徴領域選択部370は、複数の撮像画像のそれぞれにおける特徴領域のうち、予め定めた値より高い相関を有する第1特徴領域および第2特徴領域を選択する。具体的には、相関値取得部376は、当該相関に関する閾値を取得する。そして、特徴領域選択部370は、複数の動画構成画像のそれぞれにおける特徴領域のうち、相関値取得部376が取得した閾値より高い相関を有する第1特徴領域および第2特徴領域を選択する。
 例えば、特徴領域選択部370は、複数の撮像画像のそれぞれから検出された特徴領域のうち、画像内容の一致度が予め定められた値より高い第1特徴領域および第2特徴領域を選択してよい。
 他にも、特徴領域選択部370は、複数の撮像画像のそれぞれにおける特徴領域の位置に基づいて、第1特徴領域および第2特徴領域を選択してよい。例えば、特徴領域選択部370は、複数の撮像画像にわたる特徴領域の位置の変化量に基づいて、圧縮動画において移動速度の変化量が予め定められた値より小さい特徴領域である第1特徴領域および第2特徴領域を選択してよい。また、特徴領域選択部370は、複数の撮像画像にわたる特徴領域の位置の変化方向に基づいて、入力動画において移動方向の変化量が予め定められた値より小さい特徴領域である第1特徴領域および第2特徴領域を選択してよい。そして、特徴領域選択部370は、選択した第1特徴領域および第2特徴領域を示す情報を画像生成部380に供給する。
 そして、画像生成部380は、第1特徴領域の画像、第2特徴領域の画像、および第1特徴領域と第2特徴領域との間の位置差を用いて、第1特徴領域の画像および第2特徴領域の画像より高解像度な高画質画像を生成する。例えば、画像生成部380は、第1特徴領域の画像と第2特徴領域の画像とを位置差に基づいて合成することによって、高画質画像を生成する。例えば、画像生成部380は、第1特徴領域の画像と第2特徴領域の画像とを、当該位置差だけずらして重ね合わせることによって、高画質画像を生成する。
 なお、特徴領域選択部370は、複数の撮像画像のそれぞれから検出された特徴領域のうち、予め定めた値より高い相関を有する3以上の特徴領域を選択してもよい。そして、画像生成部380は、3以上の特徴領域の画像、および3以上の特徴領域の位置の差を用いて、3以上の特徴領域の画像より高解像度な高画質画像を生成してもよい。
 画像拡大部332は、撮像画像における特徴領域以外の領域の画像を、当該高画質画像と同じ解像度の画像に拡大する。そして、合成部330は、画像拡大部332により得られた画像と、高画質画像とを合成して、表示動画の動画構成画像としての一の撮像画像を生成する。このように、画像生成部380は、撮像画像における特徴領域以外の領域の画像を、高画質画像と同じ解像度の画像に拡大し、拡大して得られた画像と高画質画像とを合成することによって、一の撮像画像を生成する。画像生成部380は、複数の撮像画像のそれぞれに上記処理を施すことによって、複数の撮像画像を動画構成画像として含む表示動画を生成する。
 なお、画像生成部380は、特徴領域に含まれる物体の画像を数学モデルに適合させることにより、高画質画像を生成してよい。具体的には、モデル格納部350は、特徴パラメータで物体が表現されたモデルを格納する。より具体的には、モデル格納部350は、統計的な特徴パラメータで物体が表現されたモデルを格納する。例えば、モデル格納部350は、主成分分析に基づく主成分(例えば、主成分ベクトル)で物体が表現されたモデルを格納する。
 なお、モデル格納部350は、主成分分析に基づく主成分で物体の形状が表現されたモデルを格納してよい。また、モデル格納部350は、主成分分析に基づく主成分で物体の色が表現されたモデルを格納してよい。
 そして、画像生成部380は、撮像画像における特徴領域に含まれる物体の画像をモデルに適応させることによって、撮像画像における特徴領域に含まれる物体の画像を、当該撮像画像より高画質な高画質画像に変換する。
 なお、モデル格納部350は、異なる方向から見た物体のモデルを、当該方向に対応づけて格納している。そして、方向特定部374は、撮像画像における特徴領域に撮像されている物体が撮像された方向を特定する。そして、画像生成部380は、撮像画像における特徴領域に含まれる物体の画像を、方向特定部374が特定した方向に対応づけてモデル格納部350が格納しているモデルに適応させることによって、高画質画像に変換してよい。
 また、モデル格納部350は、異なる照明条件で照明された物体のモデルを、当該照明条件に対応づけて格納している。そして、照明条件特定部372は、入力画像における特徴領域に撮像されている物体が照明された照明条件を特定する。そして、画像生成部380は、入力画像における特徴領域に含まれる物体の画像を、照明条件特定部372が特定した照明条件に対応づけてモデル格納部350が格納しているモデルに適応させることによって、高画質画像に変換する。このように、画像生成部380は、入力された撮像画像における特徴領域に含まれる物体の画像を、モデルに適応させることによって、入力された撮像画像より高解像度な高画質画像を生成する。
 そして、出力部340は、当該高画質画像および特徴領域以外の画像を含む画像を出力する。具体的には、出力部340は、上述したように合成部330により得られた撮像画像を動画構成画像として含む表示動画を出力する。
 図5は、圧縮部230の他のブロック構成の一例を示す。本構成における圧縮部230は、特徴の種類に応じた空間スケーラブルな符号化処理によって複数の撮像画像を圧縮する。
 本構成における圧縮部230は、中間画像生成部503、画質変換部510、差分処理部520、および符号化部530を有する。差分処理部520は、複数の階層間差分処理部522a-d(以下、階層間差分処理部522と総称する。)を含む。符号化部530は、複数の符号器532a-d(以下、符号器532と総称する。)を含む。
 中間画像生成部503は、画像取得部250から複数の撮像画像を取得する。また、中間画像生成部503は、特徴領域検出部203が検出した特徴領域を特定する情報および特徴領域の特徴の種類を特定する情報を取得する。そして、中間画像生成部503は、中間画像生成部233における処理と同様の処理により、一部の撮像画像について中間画像を生成して、生成した中間画像を階層間差分処理部522dに供給する。中間画像生成部503は、一部の撮像画像以外の撮像画像における背景領域については、中間画像を生成せずに、当該背景領域の画像を画質変換部510に供給する。また、中間画像生成部503は、特徴領域についても、中間画像を生成せずに、当該特徴領域の画像を画質変換部510に供給する。なお、中間画像生成部503は、中間画像生成部233と同様の処理により中間画像を生成するので、その動作の説明を省略する。
 画質変換部510は、中間画像生成部503により処理された中間画像を含む複数の撮像画像を中間画像生成部503から取得する。また、画質変換部510は、特徴領域検出部203が検出した特徴領域を特定する情報および特徴領域の特徴の種類を特定する情報を取得する。そして、画質変換部510は、撮像画像を複製することにより、特徴領域の特徴の種類の数の撮像画像を生成する。そして、画質変換部510は、生成した撮像画像を、特徴の種類に応じた解像度の画像に変換する。
 例えば、画質変換部510は、背景領域に応じた解像度に変換された撮像画像(以後、低解像度画像と呼ぶ。)、第1の特徴の種類に応じた第1解像度に変換された撮像画像(第1解像度画像と呼ぶ。)、第2の特徴の種類に応じた第2解像度に変換された撮像画像(第2解像度画像と呼ぶ。)、および第3の特徴の種類に応じた第3解像度に変換された撮像画像(第3解像度画像と呼ぶ。)を生成する。なお、ここでは、第1解像度画像は低解像度画像より解像度が高く、第2解像度画像は第1解像度画像より解像度が高く、第3解像度画像は第2解像度画像より解像度が高いとする。
 そして、画質変換部510は、低解像度画像、第1解像度画像、第2解像度画像、および第3解像度画像を、それぞれ階層間差分処理部522d、階層間差分処理部522a、階層間差分処理部522b、および階層間差分処理部522cに供給する。なお、画質変換部510は、複数の撮像画像のそれぞれについて上記の画質変換処理することにより、階層間差分処理部522のそれぞれに動画を供給する。
 なお、画質変換部510は、特徴領域の特徴の種類に応じて、階層間差分処理部522のそれぞれに供給する動画のフレームレートを変換してよい。例えば、画質変換部510は、階層間差分処理部522aに供給する動画より低いフレームレートの動画を階層間差分処理部522dに供給してよい。また、画質変換部510は、階層間差分処理部522bに供給する動画より低いフレームレートの動画を階層間差分処理部522aに供給してよく、階層間差分処理部522cに供給する動画より低いフレームレートの動画を階層間差分処理部522bに供給してよい。なお、画質変換部510は、特徴領域の特徴の種類に応じて撮像画像を間引くことによって、階層間差分処理部522に供給する動画のフレームレートを変換してよい。なお、画質変換部510は、図3に関連して説明した画質変換部241と同様の画質変換処理を行うことができる。
 階層間差分処理部522dおよび符号器532dは、複数の低解像度画像を含む背景領域動画を予測符号化する。具体的には、階層間差分処理部522は、他の低解像度画像から生成された予測画像との差分画像を生成する。そして、符号器532dは、差分画像を空間周波数成分に変換して得られた変換係数を量子化して、量子化された変換係数をエントロピー符号化等により符号化する。なお、このような予測符号化処理は、低解像度画像の部分領域毎に行われてよい。
 また、階層間差分処理部522aは、画質変換部510から供給された複数の第1解像度画像を含む第1特徴領域動画を予測符号化する。同様に、階層間差分処理部522bおよび階層間差分処理部522cは、それぞれ複数の第2解像度画像を含む第2特徴領域動画および複数の第3解像度画像を含む第3特徴領域動画を予測符号化する。以下に、階層間差分処理部522aおよび符号器532aの具体的な動作について説明する。
 階層間差分処理部522aは、符号器532dによる符号化後の第1解像度画像を復号して、復号した画像を第1解像度と同じ解像度の画像に拡大する。そして、階層間差分処理部522aは、拡大した画像と低解像度画像との間の差分画像を生成する。このとき、階層間差分処理部522aは、背景領域における差分値を0にする。そして、符号器532aは、差分画像を符号器532dと同様に符号化する。なお、階層間差分処理部522aおよび符号器532aによる符号化処理は、第1解像度画像の部分領域毎にされてよい。
 なお、階層間差分処理部522aは、第1解像度画像を符号化する場合に、低解像度画像との間の差分画像を符号化した場合に予測される符号量と、他の第1解像度画像から生成された予測画像との間の差分画像を符号化した場合に予測される符号量とを比較する。後者の符号量の方が小さい場合には、階層間差分処理部522aは、他の第1解像度画像から生成された予測画像との間の差分画像を生成する。なお、階層間差分処理部522aは、低解像度画像または予測画像との差分をとらずに符号化した方が符号量が小さくなることが予測される場合には、低解像度画像または予測画像との間で差分をとらなくてもよい。
 なお、階層間差分処理部522aは、背景領域における差分値を0にしなくてもよい。この場合、符号器532aは、特徴領域以外の領域における差分情報に対する符号化後のデータを0にしてもよい。例えば、符号器532aは、周波数成分に変換した後の変換係数を0にしてよい。なお、階層間差分処理部522dが予測符号化した場合の動きベクトル情報は、階層間差分処理部522aに供給される。階層間差分処理部522aは、階層間差分処理部522dから供給された動きベクトル情報を用いて、予測画像用の動きベクトルを算出してよい。
 なお、階層間差分処理部522bおよび符号器532bの動作は、第2解像度画像を符号化するという点、および第2解像度画像を符号化する場合に、符号器532aによる符号化後の第1解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522bおよび符号器532bの動作は階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。同様に、階層間差分処理部522cおよび符号器532cの動作は、第3解像度画像を符号化するという点、および第3解像度画像を符号化を符号化する場合に、符号器532bによる符号化後の第2解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部522aおよび符号器532aの動作と略同一であるので、説明を省略する。
 以上説明したように、画質変換部510は、複数の撮像画像のそれぞれから、画質を低画質にした低画質画像、および少なくとも特徴領域において低画質画像より高画質な特徴領域画像を生成する。そして、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する。そして、符号化部530は、特徴領域差分画像および低画質画像をそれぞれ符号化する。
 また、画質変換部510は、複数の撮像画像から解像度が低減された低画質画像を生成して、差分処理部520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像を拡大した画像との間の特徴領域差分画像を生成する。また、差分処理部520は、特徴領域において特徴領域画像と拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域差分画像を生成する。
 以上説明したように、圧縮部230は、解像度が異なる複数の階層間の画像の差分を符号化することによって階層的に符号化する。このことからも明らかなように、本構成の圧縮部230による圧縮方式の一部は、H.264/SVCによる圧縮方式を含むことが明らかである。なお、画像処理装置170がこのような階層化された圧縮動画を伸張する場合には、各階層の動画データを復号して、階層間差分により符号化されている領域については、差分がとられた階層で復号された撮像画像との加算処理により、元の解像度の撮像画像を生成することができる。
 図6は、画像処理システム10による背景領域に対する処理の一例を示す。撮像装置100により得られた撮像動画は、複数の撮像画像610-1および撮像画像610-9(以後、撮像画像610と総称する。)を含む。なお、特徴領域検出部203は、特徴領域の一例としての頭部領域611-1および頭部領域611-9(以後、頭部領域611と総称する。)を、撮像画像610から検出している。
 なお、撮像装置100が壁・天井等に固定されているとしても、壁・天井自身がわずかに揺れていたりすると、撮像画像では半画素または画素オーダーで微小なブレが生じる場合がある。例えば本図の例において、ドアを示すオブジェクトの左上端部は撮像画像610-1上の(180,50)にあるが、撮像画像610-9においては同オブジェクトの左上端部は(181,50)にある。
 この場合、位置差算出部260は、撮像画像610-1と撮像画像610-9との間におけるオブジェクトの位置差を算出する。例えば、位置差算出部260は、撮像画像610-1における特徴領域以外の領域の画像と撮像画像610-9における特徴領域以外の領域の画像との間におけるオブジェクトの位置差を算出する。本図の例では、位置差算出部260は、ドアを示すオブジェクトに対して位置差(1,0)を算出する。
 撮像画像610が画質変換部241に供給されると、画質変換部241は、撮像画像610-1における特徴領域以外の領域(例えば、頭部領域611-1以外の領域)の画像および撮像画像610-9における特徴領域以外の領域(例えば、頭部領域611-9以外の領域)の画像をそれぞれ縮小することにより、縮小画像620-1および縮小画像620-9を生成する。より具体的には、画質変換部241は、第1撮像画像における特徴領域以外の領域の画像および第2撮像画像における特徴領域以外の領域の画像を、それぞれ特徴領域(例えば、頭部領域611)の画像より縮小することにより、縮小画像620-1および縮小画像620-9を生成する。
 このように、画質変換部241は、位置差算出部260が位置差を検出した第1撮像画像610および第2撮像画像610をそれぞれ縮小することにより、縮小画像620-1および縮小画像620-9を生成する。より具体的には、画質変換部241は、撮像画像610-1および撮像画像610-9の画素を間引くことにより、縮小画像620-1および縮小画像620-9を生成する。
 例えば、画質変換部241は、x方向およびy方向に1画素ずつ間引く間引き処理を撮像画像610に施す。その結果、本図に示すように、ドアを示すオブジェクトの左上端部は、縮小画像620-1および縮小画像620-9においてともに(80,25)に位置している。そして、出力部207は、縮小画像620-1および縮小画像620-9を、位置差(1,0)に対応づけて出力する。
 画像拡大部332は、出力部207から出力された縮小画像620-1および縮小画像620-9をそれぞれ拡大して、拡大画像630-1および拡大画像630-9を生成する。
 合成部330は、拡大画像630-9の位置を、位置差(1,0)だけずらした画像631と、拡大画像630-1とを重ね合わせるとともに、頭部領域611-1の画像を合成することによって、高画質画像640-1を生成する。このように、合成部330は、拡大画像630-9と拡大画像630-1とを、当該位置差だけずらして重ね合わせることによって、高画質画像640-1を生成する。このようにして、画像生成部380は、縮小画像620-1および縮小画像620-9を、縮小画像620-1および縮小画像620-9に対応づけて出力部207から出力された位置差に基づいて合成することによって高画質画像640-1を生成する。なお、高画質画像640-1における背景領域の画像の解像度は、頭部領域611と同じ解像度の画像であってよい。
 なお、本図の例のように、原画像において背景領域の画像がx方向に1画素分だけブレており、画質変換部241が1画素ずつ間引くことによって縮小画像620-1および縮小画像620-9を生成した場合、合成部330が拡大画像630を単純に重ね合わせるだけで、x方向については原画像と同じ解像度の高画質画像640-1を得ることができる。一方、原画像におけるブレが1画素未満であったり、画質変換部241においてより多くの画素が間引かれる場合には、合成部330は、画素値の単純補間、3次スプライン補間、周囲画素の重み付け加算等の処理により、原画像と同じ解像度の高画質画像を生成することができる。なお、ここでいう解像度は画素数を指標とするものであって、結果として得られた高画質画像が解像している解像力をかならずしも示すものではない。
 以上説明したように、画像生成部380は、縮小画像620-1および縮小画像620-9を位置差に基づいて合成することにより、縮小画像620-1および縮小画像620-9より高解像度な高画質画像を生成する。より具体的には、画像生成部380は、縮小画像620-1と縮小画像620-9とを、位置差に応じた量だけずらして重ね合わせることによって、高画質画像640-1を生成する。
 なお、圧縮処理部236は、画質変換部241により生成された縮小画像620-1および縮小画像620-9をそれぞれフレーム内圧縮してよい。この場合、出力部207は、フレーム内圧縮された縮小画像620-1およびフレーム内圧縮された縮小画像620-9を、位置差に対応づけて出力してよい。そして、伸張部320は、出力部207から出力されたフレーム内圧縮された縮小画像620-1、および出力部207から出力されたフレーム内圧縮された縮小画像620-9を伸張する。
 そして、画像生成部380は、伸張部320によって伸張された縮小画像620-1および伸張部320によって伸張された縮小画像620-9を位置差に基づいて合成することにより、縮小画像620-1および縮小画像620-9が有する画素数より多い数の画素を有する高画質画像を生成してよい。この場合、位置差算出部260は、圧縮処理部236により後にフレーム内圧縮される撮像画像610から、位置差を算出する。なお、本図に関連して説明した高解像度化処理がなされる場合、中間画像生成部233および画質変換部510は中間画像を生成せずに、背景領域の画像を画質変換部241dまたは画質変換部510に供給する。
 以上説明したような画像処理システム10の動作によって、縮小画像620-1および縮小画像620-9から、高解像度な高画質画像640-1を得ることができる。本図に示すように、縮小画像620-1および縮小画像620-9におけるドアのオブジェクトはともに同じ座標にあり、原画像における位置差情報が失われてしまっている。このように、縮小処理により位置差情報はその精度が低下してしまうが、画像処理システム10によると、位置差算出部260が原画像における位置差を算出して、縮小画像620と当該位置差とを対応づけて出力するので、後で当該位置差情報を利用して高精度でオブジェクトを高解像度化することができる。
 図7は、中間画像生成部233における中間画像生成処理の一例を示す。図6に関連して説明した高解像度化処理の例では、画像処理装置120において、画質変換部241dにより撮像画像610-1および撮像画像610-9が縮小されて縮小画像620-1および縮小画像620-9が生成された。そして、画像処理装置170において、縮小画像620-1、縮小画像620-9、および位置差算出部260によって算出された位置差に基づいて、画素値の補間処理等によって背景領域が高解像度化された。
 一方、本図に関連して説明する方法では、画像処理装置120において実質的な高解像度化処理がなされる。具体的には、中間画像生成部233が、位置差算出部260によって算出された位置差に基づく画素値の補間処理をすることによって中間画像を生成する。そして、出力部207は、画質変換部241dによって中間画像を縮小して得られた縮小画像を画像処理装置170に送信する。以下に、より具体的な処理について説明する。
 本図において、画素値波形750は、撮像画像610-1における背景領域の一部の領域における画素値(黒丸印で示す)に基づくx方向の画素値波形の一例を示している。また、画素値波形760は、位置差算出部260によって算出された位置差および撮像画像610-9における背景領域の一部の領域における画素値に基づくx方向の画素値波形の一例を示している。中間画像生成部233は、画素値波形760における白抜き丸印で示す画素値を算出する。なお、この白抜き丸印の画素値は、黒抜き印のx座標の中点における画素値であってよい。
 このように、中間画像生成部233は、位置差算出部260によって算出された位置差および撮像画像610-9に少なくとも基づいて、撮像画像610-1における画素位置の間の位置における画素値を推定し、推定した画素値に基づく中間画像を生成する。具体的には、中間画像生成部233は、位置差および撮像画像610-9における特徴領域以外の領域の画像に少なくとも基づいて撮像画像610-1における特徴領域以外の領域の画素位置の間の位置における画素値を推定し、推定した画素値に基づく中間画像を生成する。
 そして、画質変換部241dは、撮像画像610-1および中間画像をそれぞれ縮小することにより、縮小画像を生成する。なお、画質変換部241dは、撮像画像610-1における特徴領域以外の領域の画像および中間画像を、それぞれ特徴領域の画像より縮小することにより、縮小画像を生成してよい。そして、出力部207は、撮像画像610-1および中間画像から生成された縮小画像を出力する。そして、画像処理装置170において、画像生成部380は、それらの縮小画像を合成した画像を生成する。具体的には、画像生成部380は、それらの縮小画像を重ね合わせた画像を生成する。
 なお、上記の説明では、中間画像生成部233および画質変換部241dの動作について説明したが、図5に関連して説明した圧縮部230の構成では、中間画像生成部503が中間画像生成部233と同様の処理により中間画像を生成するとともに、画質変換部510が画質変換部241dと同様の処理により中間画像を縮小することができる。本図に関連して説明した処理によると、実質的な高解像度処理は画像処理装置120においてなされるので、画像処理装置170における演算量を軽減することができる。
 図8は、特徴領域選択部370による特徴領域の選択処理の一例を示す。特徴領域検出部203は、撮像画像710-1~3(以下、撮像画像710と総称する。)から、それぞれ頭部領域711-1~3(以下、頭部領域711と総称する。)を特徴領域として検出している。また、特徴領域検出部203は、撮像画像710-1~3から、それぞれ車両領域721-1~3(以下、車両領域721と総称する。)を特徴領域として検出している。
 そして、特徴領域選択部370は、頭部領域711の位置および車両領域721の位置に基づいて、略同一速度で動くオブジェクトを含む特徴領域を、相関が高い特徴領域として選択する。本図の例では、特徴領域選択部370は、頭部領域711-1~3の組を相関が高い特徴領域の組として選択することができ、車両領域721-1~3の組を相関が高い他の特徴領域の組として選択することができる。このように、画像処理システム10によると、画像処理装置120で検出した特徴領域の位置から、相関が高い特徴領域を速やかに特定することができる。なお、特徴領域選択部370は、複数の撮像画像において位置が略同一な特徴領域についてだけ、特徴領域の画像内容に基づいて相関が高い特徴領域を選択してよい。
 なお、図3に関連して説明したように、特徴領域選択部370によって選択された特徴領域の画像は、画像生成部380により高解像度化される。画像生成部380による当該高解像度化処理は、図6に関連して説明した背景領域の高解像度化処理と同様であるので、その説明を省略する。
 図9は、人間の顔における特徴点の一例を示す。図3に関連して説明したように、モデル格納部350は、特徴パラメータで物体を表現するモデルを格納している。以下に、モデル格納部350が格納するモデルを生成する生成方法の一例として、物体の一例である人物の顔のモデルをAAM手法を用いて生成する場合について説明する。
 サンプルとなる人間の顔部分が表された複数の顔画像(以下、サンプル画像)の各々に対して、図9に示すように、顔形状を表す特徴点をn個設定する。なお、ここでは、特徴点の数は顔画像の画素数より少ないものとする。各特徴点は、例えば、1番目の特徴点は左目の左端、11番目の特徴点は眉の間の中央というように、顔のどの部位を示すかが予め定められていてよい。また、各特徴点は、手作業によって設定してもよいし、認識処理によって自動的に設定してもよい。
 そして、各サンプル画像中に設定された特徴点に基づいて、顔の平均形状を算出する。具体的には、各サンプル画像における、同じ部位を示す特徴点毎の位置座標の平均を求める。そして、各サンプル画像における顔形状を表す特徴点とその平均形状の位置座標に基づいて主成分分析を行う。その結果、任意の顔形状Sは、S=S+Σp(i=1~n)によって表現することができる。
 ここで、Sは顔形状の各特徴点の位置座標を並べて表現される形状ベクトル(x1,y1,・・・,x,y)であり、Sは平均顔形状における各特徴点の位置座標を並べて表現される平均顔形状ベクトル、pは主成分分析によって得られた顔形状についての第i主成分を表す固有ベクトル、bは各固有ベクトルpに対する重みづけ係数を表す。
 図10は、重みづけ係数bを変化させた場合の顔形状の変化の一例を模式的に示す。本図では、主成分分析によって得られた上位2つの主成分の固有ベクトルp、pに対する重みづけ係数b、bの値を変化させた場合の顔形状の変化の様子を模式的に表している。a)は、重みづけ係数bを変化させた場合の顔形状の変化を示しており、b)は、重みづけ係数bを変化させた場合の顔形状の変化を示している。a)およびb)のいずれにおいても、各主成分についての3つの顔形状の中央のものは、平均的な顔形状を示す。
 この例では、主成分分析の結果、第1主成分としては顔の輪郭形状に寄与する成分が抽出されており、重みづけ係数bを変化させることによって、a)左端に示す細長い顔からa)右端に示す丸顔まで顔形状が変化していることがわかる。同様に、第2主成分としては口の開閉状態と顎の長さに寄与する成分が抽出されており、重みづけ係数bを変化させることによって、b)左端に示すような口が開いた状態で顎が長い顔から、b)右端に示すような口が閉じられた状態で顎が短い顔まで、顔形状が変化することがわかる。なお、各主成分が結果としてどのような形状要素に寄与しているかは人間の解釈による。主成分分析により、使用された各サンプル画像においてより大きな形状の違いを表現するものがより低次の主成分として抽出される。
 図11は、サンプル画像を平均顔形状に変換して得られた画像の一例を示す。各サンプル画像を、平均顔形状に変換(ワーピング)する。具体的には、各特徴点について、各サンプル画像と平均顔形状との間でのシフト量を算出する。そして、当該シフト量に基づいて、各サンプル画像の画素毎の平均顔形状へのシフト量を算出して、各サンプル画像を画素毎に平均顔形状へワーピングする。
 そして、平均顔形状に変換後のサンプル画像毎の各画素のR,G,Bの色成分の画素値を変数として主成分分析する。その結果、任意の顔画像の平均顔形状下でのR,G,Bの色成分の画素値は、A=A+Σqλ(i=1~m)によって近似することができる。
 ここで、Aは、平均顔形状下での各画素のR,G,B色成分の各々の画素値を並べて表現されるベクトル(r1,g1,b1,r2,g2,b2,・・・,rm,gm,bm)である。なお、r、g、bはそれぞれR,G,B色成分の画素値、1からmは各画素を識別する添え字、mは平均顔形状での総画素数を示す。なお、ベクトルの成分の並び順は上記の順に限定されない。
 また、Aは平均顔形状における各サンプル画像の画素毎のR,G,B色成分の各々の画素値の平均値を並べて表現される平均ベクトル、qは主成分分析によって得られた顔のR,G,B色成分の画素値についての第i主成分を表す固有ベクトル、λは各固有ベクトルqに対する重みづけ係数を表す。
 図12は、重みづけ係数qを変化させた場合の画素値の変化の一例を模式的に示す。本図では、主成分分析によって得られた上位2つの主成分の固有ベクトルq、qに対する重みづけ係数λ、λの値を変化させた場合の顔の画素値の変化の様子を模式的に表している。a)は、重みづけ係数λを変化させた場合の画素値の変化を示しており、b)は、重みづけ係数λを変化させた場合の画素値の変化を示している。a)およびb)のいずれにおいても、各主成分についての3つの顔形状の中央のものは、平均的な画素値を示す。
 この例では、主成分分析の結果、第1主成分としてはヒゲの有無に寄与する成分が抽出されており、重みづけ係数λを変化させることによって、a)左端に示すヒゲのない顔からa)右端に示すヒゲの濃い顔まで変化することがわかる。第2主成分としては眉の濃さに寄与する成分が抽出されており、重みづけ係数λを変化させることによって、b)左端に示すような眉が薄い顔から、b)右端に示すような眉が濃い顔まで変化することがわかる。
 以上、図10から図12にかけて説明した処理によって、顔のモデルが生成される。このモデルは、顔形状を表す複数の固有ベクトルpと、平均顔形状下での顔の画素値を表す固有ベクトルqとによって、顔を表現する。モデルが有する各固有ベクトルの合計数は、顔画像を形成する画素数よりも大幅に少ない。なお、上記の例では、形状および画素値を顔形状とR,G,B色成分の画素値についての別個の重みづけ係数b、λによって、個別の顔画像を表現したが、顔形状と色成分の画素値のバリエーションには相関性があることから、特徴点および画素値の双方を含む特徴パラメータを主成分分析することもできる。
 次に、モデル格納部350が格納しているモデルを用いて画像生成部380が特徴領域の画像を高解像度化する処理の一例を説明する。画像生成部380は、特徴領域に含まれる入力顔画像を正規化して、平均顔形状化でのR,G,Bの色成分の画素値を算出する。なお、入力顔画像は、かならずしも正面からの画像でなかったり、照明条件がサンプル画像を撮像した場合の照明条件と異なる場合がある。したがって、ここでいう正規化とは、上記で説明した正面の顔の特徴点を揃える処理だけでなく、斜めから撮像されて得られた入力顔画像の向きを正面から撮像された顔画像に変換する変換処理であったり、照明による影の影響を除去したりする影除去処理等のように、サンプル画像と同等の撮影環境で撮像された顔画像に変換する処理を含む。
 そして、画像生成部380は、平均顔に対する画素値との差を主成分ベクトルqに射影することにより、重みづけ係数λを算出する。具体的には、画像生成部380は、主成分ベクトルqとの内積により重みづけ係数λを算出することができる。そして、画像生成部380は、算出された重みづけ係数λ、平均顔の画素値A、および主成分ベクトルqを用いて、平均顔形状下における画素値Aを算出する。
 画像生成部380は、顔の特徴点Sについても、上述した画素値Aの算出処理と同様の処理により算出する。具体的には、画像生成部380は、平均顔に対する特徴点の位置の差を主成分ベクトルpに射影することにより重みづけ係数bを算出して、算出された重みづけ係数b、平均顔の特徴点S、および主成分ベクトルpを用いて、特徴点Aを算出する。そして、画像生成部380は、画素値Aおよび特徴点Aで表される画像に対して、上記の正規化処理のうち特徴点を揃える処理を除く処理の逆変換処理を施す。
 以上の処理により、画像生成部380は、出力部207から出力された撮像画像における特徴領域の画像から、当該撮像画像より高画質な高画質画像を生成する。具体的には、画像生成部380は、出力部207から出力された撮像画像における特徴領域の画像に比べて、より高解像度の画像、よりシャープな画像、よりノイズが少ない画像、より階調数の多い画像、あるいはより色数の多い画像を生成することができる。
 図13は、モデル格納部350が格納しているモデルの一例をテーブル形式で示す。モデル格納部350は、複数の表情および複数の方向のそれぞれの組み合わせ毎に、モデルを格納している。表情としては、喜怒哀楽のそれぞれの状態にあるときの顔、および真顔を含み、方向としては、正面、上方、下方、右方、左方、および後方を含む。画像生成部380は、特徴領域に含まれる顔画像の画像内容に基づいて顔の表情および顔の方向を特定して、特定した表情および方向の組み合わせに対応づけてモデル格納部350が格納しているモデルを用いて、上述の再構成処理をすることができる。
 なお、画像生成部380は、口および/または目の形状から表情を特定することができ、目、口、鼻、および耳の位置関係等から顔の方向を特定することができる。なお、画像処理装置120が顔の表情および顔の方向を特定してよく、出力部207から撮像画像に対応づけて顔の表情および顔の方向が出力されてよい。
 また、モデル格納部350は、顔の表情および向きの他に、上述したように照明条件に対応づけてモデルを格納してよい。例えば、モデル格納部350は、照明強度および照明の方向に対応づけてモデルを格納してよい。そして、画像生成部380は、特徴領域に含まれる顔画像の画像内容に基づいて顔への照明条件を特定してよい。例えば、画像生成部380は、影の位置および大きさに基づいて、照明強度および照明方向を特定して、特定した照明強度および照明方向に対応づけてモデル格納部350が格納しているモデルを用いて、上述の再構成処理をすることができる。
 なお、上記の例では、顔全体を表現するモデルの生成および当該モデルを用いた再構成過程を説明した。このような顔全体のモデルの他に、画像処理システム10は、顔の部位毎のモデルを用いることができる。他にも、画像処理システム10は、性別および/または人種毎の顔(あるいは顔の部位毎)のモデルを用いることができる。また、画像処理システム10は、人物のモデルの他に、車両、船舶等、画像処理システム10が監視対象とする物体の種別毎にモデルを格納することができる。そして画像生成部380は、特徴領域に含まれる物体の種類に応じてモデルを選択して再構成することもできる。このような種類は、画像処理装置120において検出され、撮像画像に対応づけて画像処理装置170に送信されてよい。
 以上説明したように、モデル格納部350は、異なる種類の物体のモデルを、当該種類に対応づけて格納することができる。そして、特徴領域情報取得部360は、入力画像における特徴領域に撮像されている物体の種類を示す情報を取得する。そして、画像生成部380は、撮像画像における特徴領域に含まれる物体の画像を、特徴領域情報取得部360が取得した特徴領域に撮像されている物体の種類に対応づけてモデル格納部350が格納しているモデルに適応させることによって、高画質画像に変換する。
 以上説明した画像処理システム10によると、特徴領域についてはモデルを用いて超解像化する一方で、背景領域についてはモデルを用いた超解像化はしない。このため、超解像処理の演算量を著しく削減することができる。また、背景領域のように重要度が低い領域は高画質化されないので、画像のデータ量を削減することができる。また、画像処理システム10によると、特徴領域を特定する情報が画像処理装置170に送信されるので、低画質な情報しか含まれない背景領域が誤って超解像処理されてしまうことを未然に防ぐことができる。
 なお、モデル格納部350は、上述したように、オブジェクトの種類を識別する情報の一例としての顔部位(例えば、目、鼻、口など)毎に、学習データを格納している。ここで、学習データとしては、上記モデルの他に、オブジェクトの多数のサンプル画像からそれぞれ抽出された、オブジェクトの画像の低周波成分および高周波成分を含んでよい。このように、モデル格納部350は、オブジェクトの種類に対応づけて、オブジェクトの画像の高周波成分を格納するオブジェクト画像情報格納部として機能する。なお、複数のオブジェクトの種類のそれぞれについてオブジェクトの画像の低周波成分をK-means法等によってクラスタリングすることによって、複数のオブジェクトの種類のそれぞれにおいてオブジェクトの画像の低周波成分は複数のクラスタにクラスタリングされていてよい。また、各クラスタ毎に代表的な低周波成分(例えば、重心値)が定められていてよい。
 そして、画像生成部380は、撮像画像に含まれるオブジェクトの画像から低周波成分を抽出する。そして、画像生成部380は、当該オブジェクトの種類のオブジェクトのサンプル画像から抽出された低周波成分のクラスタのうち、抽出した低周波成分に適合する値が代表的な低周波成分として定められたクラスタを特定する。そして、画像生成部380は、特定したクラスタに含まれる低周波成分に対応づけられている高周波成分のクラスタを特定する。このようにして、画像生成部380は、撮像画像に含まれるオブジェクトから抽出された低周波成分に相関のある高周波成分のクラスタを特定することができる。そして、画像生成部380は、特定した高周波成分のクラスタを代表する高周波成分を用いて、オブジェクトの画像をより高画質な高画質画像に変換してよい。例えば、画像生成部380は、各オブジェクトの中心から顔上の処理対象位置までの距離に応じた重みでオブジェクト毎に選択された当該高周波成分をオブジェクトの画像に加算してよい。なお、当該代表する高周波成分は、閉ループ学習によって生成されてよい。このように、画像生成部380は、各オブジェクト毎に学習することによって生成された学習データの中から、望ましい学習データをオブジェクト毎に選択して利用するので、オブジェクトの画像をより高い精度で高画質化することができる場合がある。
 以上のように、画像処理装置170は、主成分分析(PCA)を用いて特徴領域の画像を再構成することができる。なお、画像処理装置170による画像再構成手法、および当該画像再構成用の学習法としては、主成分分析(PCA)による学習・画像再構成の他に、局所保存投影(locality preserving projection:LPP)、線形判別分析(Linear Discriminant Analysis:LDA)、独立成分分析(Independent component analysis:ICA)、多次元スケーリング(multidimensional scaling:MDS)、サポートベクターマシン(サポートベクター回帰)、ニューラルネットワーク、隠れマルコフモデル、Bayes推論、最大事後確率推定、反復逆投影、Wavelet変換、局所線形埋め込み(locally linear embedding:LLE)、マルコフランダム場(Markov random field:MRF)等の手法を用いることができる。
 図6から図8に関連して、位置差算出部260が算出したオブジェクトの位置差に基づいて高画質画像を生成する高画質化処理について具体的に説明した。また、図9から図13に関連して、モデル格納部350が格納しているモデルを用いて高画質画像を生成する高画質化処理について具体的に説明した。画像生成部380は、オブジェクトの位置差に基づく高画質化処理と、モデルを用いる高画質化処理とを共に行うことによって、高画質画像を生成することもできる。
 既に説明したように、画像取得部301が、複数の動画構成画像を含む入力動画を取得して、特徴領域情報取得部360が、複数の動画構成画像のそれぞれにおける特徴領域の位置を示す情報を取得したとする。そして、特徴領域選択部370は、複数の動画構成画像のそれぞれにおける特徴領域のうち、予め定めた値より高い相関を有する第1特徴領域および第2特徴領域を選択したとする。
 画像生成部380は、第1特徴領域に含まれる物体の画像および第2特徴領域に含まれる物体の画像を、それぞれモデル格納部350が格納しているモデルに適応させることによって、それぞれ第1高画質画像および第2高画質画像に変換する。第1高画質画像および第2高画質画像は、図9から図14に関連して具体的に説明したモデルを用いる高画質化処理により得られる。
 そして、画像生成部380は、第1高画質画像および第2高画質画像に、図6から図8に関連して具体的に説明したオブジェクトの位置差に基づく高画質化処理を施すことにより高解像度化する。すなわち、画像生成部380は、第1高画質画像、第2高画質画像、および第1特徴領域と第2特徴領域との間の位置差を用いて、第1特徴領域に含まれる物体の画像および第2特徴領域に含まれる物体の画像より高解像度な高画質画像を生成する。具体的には、画像生成部380は、第1高画質画像と第2高画質画像とを位置差に基づいて合成することによって、高画質画像を生成する。より具体的には、画像生成部380は、第1高画質画像と第2高画質画像とを、位置差だけずらして重ね合わせることによって、高画質画像を生成する。
 他にも、オブジェクトの位置差に基づく高画質化処理により得られた高画質画像に、モデルを用いる高画質化処理を施してもよい。すなわち、図6から図8に関連して具体的には説明したように、画像生成部380は、第1特徴領域の画像、第2特徴領域の画像、および第1特徴領域と第2特徴領域との間の位置差を用いて、第1特徴領域の画像および第2特徴領域の画像より高解像度な高画質画像を生成する。そして、当該高画質画像における特徴領域に含まれる物体の画像をモデル格納部350が格納しているモデルに適応させることによって、当該高画質画像における特徴領域に含まれる物体の画像を、当該高画質画像よりもより高画質な画像に変換する。
 図14は、他の実施形態に係る画像処理システム20の一例を示す。本実施形態における画像処理システム20の構成は、撮像装置100a-dがそれぞれ画像処理部804a-d(以下、画像処理部804と総称する。)を有する点を除いて、図1で説明した画像処理システム10の構成と同じとなっている。
 画像処理部804は、画像処理装置120に含まれる構成要素のうち、画像取得部250を除く構成要素を有している。そして、画像処理部804に含まれる各構成要素の機能および動作は、画像処理装置120に含まれる各構成要素が圧縮動画伸張部202による伸張処理によって得られた撮像動画を処理することに替えて、撮像部102によって撮像された撮像動画を処理するという点を除いて、画像処理装置120に含まれる各構成要素の機能および動作と略同一であってよい。このような構成の画像処理システム20においても、図1から図13にかけて画像処理システム10に関連して説明した効果と略同一の効果が得ることができる。
 なお、画像処理部804は、撮像部102からRAW形式で表された複数の撮像画像を含む撮像動画を取得して、取得した撮像動画に含まれるRAW形式で表された複数の撮像画像をRAW形式のまま圧縮してよい。なお、画像処理部804は、RAW形式で表された複数の撮像画像から1以上の特徴領域を検出してよい。また、画像処理部804は、圧縮されたRAW形式の複数の撮像画像を含む撮像動画を圧縮してよい。なお、画像処理部804は、撮像動画を、図1~図13に関連して画像処理装置120の動作として説明した圧縮方法で圧縮することができる。なお、画像処理装置170は、画像処理部804から取得した動画を伸張することにより、RAW形式で表された複数の撮像画像を取得することができる。画像処理装置170は、伸張することにより取得されたRAW形式で表された複数の撮像画像をそれぞれ領域毎に拡大して、領域毎に同時化処理を施す。このとき、画像処理装置170は、特徴領域以外の領域より、特徴領域においてより高精度な同時化処理を施してよい。
 そして、画像処理装置170は、同時化処理によって得られた撮像画像における特徴領域の画像に、図1~図13に関連して説明したような超解像処理を施してよい。なお、図1~図13に関連して説明したように、画像処理装置170は超解像処理において上述した重みづけ係数を算出した。この場合、特徴領域に含まれる物体の画像は、主成分ベクトルおよび重みづけ係数によって表されるが、これらの重みづけ係数および主成分ベクトルのデータ量は、物体の画像そのものが有する画素データのデータ量に比べて大幅に小さい。そこで、画像処理部804は、撮像部102から取得した複数の撮像画像における特徴領域の画像を圧縮する圧縮処理において、特徴領域に含まれる物体の画像から上述した重みづけ係数を算出してよい。すなわち、画像処理部804は、特徴領域に含まれる物体の画像を、主成分ベクトルおよび重みづけ係数で表すことによって圧縮することができる。そして、画像処理部804は、主成分ベクトルおよび重みづけ係数を画像処理装置170に送信してよい。画像処理装置170においては、画像処理部804から取得した主成分ベクトルおよび重みづけ係数を用いて、上述したように特徴領域に含まれる物体の画像を再構成することができる。
 このように、画像処理部804は、撮像画像における特徴領域の画像に含まれる物体の画像を、物体が特徴パラメータで表現されたモデルに適応させることによって、特徴領域の画像に含まれる物体を表す、当該モデルにおける特徴パラメータの値を算出してよい。そして、画像処理部804は、算出した特徴パラメータの値および特徴領域以外の領域の画像を出力してよい。そして、画像処理装置170は、画像処理部804から取得した特徴パラメータの値をモデルに適用することで物体の画像を生成して、生成した物体の画像および特徴領域以外の領域の画像を用いて一の撮像画像を生成してよい。
 図15は、一実施形態に係わる画像処理システム2010の一例を示す。画像処理システム2010は、以下に説明するように、監視システムとして機能することができる。
 画像処理システム2010は、監視対象空間2150を撮像する複数の撮像装置2100a-d(以下、撮像装置2100と総称する。)、撮像装置2100により撮像された撮像画像を処理する画像処理装置2120、通信ネットワーク2110、画像処理装置2170、画像DB2175、および複数の表示装置2180a-d(以下、表示装置2180と総称する。)を備える。画像処理装置2170および表示装置2180は、監視対象空間2150と異なる空間2160に設けられている。
 撮像装置2100aは、撮像部2102aおよび撮像画像圧縮部2104aを有している。撮像部2102aは、連続して監視対象空間2150を撮像することによって複数の撮像画像を撮像する。なお、撮像部2102aにより得られる撮像画像は、RAW形式の撮像画像であってよい。撮像画像圧縮部2104aは、撮像部2102aにより撮像されたRAW形式の撮像画像を同時化して、同時化して得られた複数の撮像画像を含む撮像動画をMPEG符号化等により圧縮して、撮像動画データを生成する。このように、撮像装置2100aは、監視対象空間2150を撮像して得られた撮像動画を符号化して撮像動画データを生成する。撮像装置2100aは、当該撮像動画データを画像処理装置2120に出力する。
 なお、撮像装置2100b、撮像装置2100c、および撮像装置2100dは、それぞれ撮像装置2100aと同様の構成を有するので、撮像装置2100b、撮像装置2100c、および撮像装置2100dの各構成要素の説明を省略する。このようにして、画像処理装置2120は、複数の撮像装置2100のそれぞれにより生成された撮像動画データを、複数の撮像装置2100のそれぞれから取得する。
 そして、画像処理装置2120は、撮像装置2100から取得した撮像動画データを復号して撮像動画を取得する。画像処理装置2120は、取得した撮像動画に含まれる複数の撮像画像のそれぞれから、人物2130が撮像された領域、車輌等の移動体2140が撮像された領域等のように、特徴の種類が異なる複数の特徴領域を検出する。そして、画像処理装置2120は、特徴の種類に応じた強度で特徴領域の画像を圧縮するとともに、特徴領域以外の領域の画像を、それぞれの特徴領域の画像を圧縮する圧縮強度より強い強度で圧縮してよい。
 なお、画像処理装置2120は、特徴パラメータで物体が表現される数学モデルを記憶している。そして、画像処理装置2120は、特徴領域に含まれる物体の画像を、当該数学モデルに適合させることによって、物体の画像を表す特徴パラメータの値を算出する。
 そして、画像処理装置2120は、撮像画像から検出された特徴領域を特定する情報を含む特徴領域情報を生成する。そして、画像処理装置2120は、特徴パラメータの値および特徴領域情報を圧縮動画データに付帯して、通信ネットワーク2110を通じて画像処理装置2170に送信する。
 画像処理装置2170は、特徴パラメータの値および特徴領域情報が対応づけられた圧縮動画データを画像処理装置2120から受信する。そして、画像処理装置2170は、受信した圧縮動画データを、対応づけられている特徴領域情報を用いて伸張する。このとき、画像処理装置2170は、伸張された得られた特徴領域の画像を用いて、特徴パラメータの値でモデルを変更することによって特徴領域に含まれる物体の画像を生成する。このようにして生成された表示用動画は、表示装置2180に供給される。表示装置2180は、画像処理装置2170から供給された表示用動画を表示する。
 また、画像処理装置2170は、圧縮動画データに対応づけられている特徴領域情報に対応づけて、当該圧縮動画データおよび特徴パラメータを画像DB2175に記録してもよい。そして、画像処理装置2170は、表示装置2180からの要求に応じて、画像DB2175から圧縮動画データ、特徴領域情報、および特徴パラメータの値を読み出して、上記のようにして表示用動画を生成して表示装置2180に供給してもよい。
 なお、特徴領域情報は、特徴領域の位置、特徴領域の大きさ、特徴領域の数、特徴領域が検出された撮像画像を識別する識別情報等を含むテキストデータ、もしくは当該テキストデータに圧縮、暗号化等の処理が施されたデータであってよい。そして、画像処理装置2170は、特徴領域情報が含む特徴領域の位置、特徴領域の大きさ、特徴領域の数等に基づいて、種々の検索条件を満たす撮像画像を特定する。そして、画像処理装置2170は、特定した撮像画像を復号して、表示装置2180に提供してよい。
 このように、画像処理システム2010によると、特徴領域を動画に対応づけて記録しているので、動画における所定の条件に適合する撮像画像群を高速に検索、頭出しをすることができる。また、画像処理システム2010によると、所定の条件に適合する撮像画像群だけ復号することができるので、再生指示に即応して速やかに所定の条件に適合する部分動画を表示することができる。
 図16は、画像処理装置2120のブロック構成の一例を示す。画像処理装置2120は、画像取得部2250、特徴領域検出部2203、モデル格納部2270、パラメータ値算出部2260、パラメータ量子化部2280、圧縮制御部2210、圧縮部2230、対応付け処理部2206、および出力部2207を備える。画像取得部2250は、圧縮動画取得部2201および圧縮動画伸張部2202を有する。
 圧縮動画取得部2201は、圧縮された動画を取得する。具体的には、圧縮動画取得部2201は、撮像装置2100が生成した、符号化された撮像動画データを取得する。圧縮動画伸張部2202は、圧縮動画取得部2201が取得した撮像動画データを伸張して、撮像動画に含まれる複数の撮像画像を生成する。具体的には、圧縮動画伸張部2202は、圧縮動画取得部2201が取得した、符号化された撮像動画データを復号して、撮像動画に含まれる複数の撮像画像を生成する。なお、撮像動画に含まれる撮像画像は、フレーム画像およびフィールド画像であってよい。なお、本実施形態における撮像画像は、この発明における動画構成画像の一例であってよい。このように、画像取得部2250は、複数の撮像装置2100のそれぞれにより撮像された複数の動画を取得する。
 圧縮動画伸張部2202によって得られた複数の撮像画像は、特徴領域検出部2203および圧縮部2230に供給される。特徴領域検出部2203は、複数の撮像画像を含む動画から特徴領域を検出する。具体的には、特徴領域検出部2203は、複数の撮像画像のそれぞれから特徴領域を検出する。なお、上記における撮像動画は、以下の説明における動画の一例であってよい。
 例えば、特徴領域検出部2203は、動画において画像内容が変化する画像領域を、特徴領域として検出する。具体的には、特徴領域検出部2203は、動くオブジェクトを含む画像領域を、特徴領域として検出してよい。なお、特徴領域検出部2203は、複数の撮像画像のそれぞれから、特徴の種類が異なる複数の特徴領域を検出してよい。なお、特徴の種類とは、人物と移動体等のように、オブジェクトの種類を指標にしてよい。オブジェクトの種類は、オブジェクトの形状またはオブジェクトの色の一致度に基づいて決定されてよい。このように、特徴領域検出部2203は、複数の撮像画像から、含まれるオブジェクトの種類が異なる複数の特徴領域を検出してよい。
 例えば、特徴領域検出部2203は、予め定められた形状パターンに予め定められた一致度以上の一致度で一致するオブジェクトを複数の撮像画像のそれぞれから抽出して、抽出したオブジェクトを含む撮像画像における領域を、特徴の種類が同じ特徴領域として検出してよい。なお、形状パターンは、特徴の種類毎に複数定められてよい。また、形状パターンの一例としては、人物の顔の形状パターンを例示することができる。なお、複数の人物毎に異なる顔のパターンが定められてよい。これにより、特徴領域検出部2203は、異なる人物をそれぞれ含む異なる領域を、異なる特徴領域として検出することができる。なお、特徴領域検出部2203は、上記の人物の顔の他にも、人物の頭部または人物の手等の人体の一部の部位、あるいは人体以外の生体の少なくとも一部の部位を含む領域を、特徴領域として検出することができる。なお、生体とは、生体内部の腫瘍組織または血管等のように、生体の内部に存在する特定の組織を含む。他にも、特徴領域検出部2203は、生体の他にも、貨幣、キャッシュカード等のカード、車輌、あるいは車両のナンバープレートが撮像された領域を特徴領域として検出してよい。
 また、特徴領域検出部2203は、テンプレートマッチング等によるパターンマッチングの他にも、例えば特開2007-188419号公報に記載された機械学習(例えば、アダブースト)等による学習結果に基づいて、特徴領域を検出することもできる。例えば、予め定められた被写体の画像から抽出された画像特徴量と、予め定められた被写体以外の被写体の画像から抽出された画像特徴量とを用いて、予め定められた被写体の画像から抽出された画像特徴量の特徴を学習する。そして、特徴領域検出部2203は、当該学習された特徴に適合する特徴を有する画像特徴量が抽出された領域を、特徴領域として検出してよい。これにより特徴領域検出部2203は、予め定められた被写体が撮像されている領域を特徴領域として検出することができる。
 このように、特徴領域検出部2203は、複数の動画のそれぞれに含まれる複数の撮像画像から、複数の特徴領域を検出する。そして、特徴領域検出部2203は、検出した特徴領域を示す情報を、圧縮制御部2210に供給する。なお、特徴領域を示す情報とは、特徴領域の位置を示す特徴領域の座標情報、特徴領域の種類を示す種類情報、および特徴領域が検出された撮像動画を識別する情報を含む。このように、特徴領域検出部2203は、動画における特徴領域を検出する。
 圧縮制御部2210は、特徴領域検出部2203から取得した特徴領域を示す情報に基づいて、特徴領域に応じて圧縮部2230による動画の圧縮処理を制御する。なお、圧縮部2230は、撮像画像における特徴領域と撮像画像における特徴領域以外の領域とで異なる強度で圧縮することにより、撮像画像を圧縮してよい。例えば、圧縮部2230は、動画に含まれる撮像画像における特徴領域以外の領域の解像度を低解像度化することにより撮像画像を圧縮する。このように、圧縮部2230は、特徴領域以外の領域の画像の画質を低減することにより、特徴領域以外の領域の画像を圧縮する。また、圧縮部2230は、撮像画像における各画像領域のそれぞれを重要度に応じた強度で圧縮する。なお、圧縮部2230のより具体的な内部の圧縮動作については、後に説明する。
 モデル格納部2270は、物体が特徴パラメータで表現されたモデルを格納する。例えば、モデル格納部2270は、物体が統計的な特徴パラメータにより表現されたモデルを格納してよい。より具体的には、モデル格納部2270は、主成分分析に基づく主成分で物体が表現されたモデルを格納してよい。なお、モデル格納部2270は、主成分分析に基づく主成分で物体の形状が表現されたモデルを格納してよい。また、モデル格納部2270は、主成分分析に基づく主成分で物体の色が表現されたモデルを格納してよい。
 パラメータ値算出部2260は、撮像画像における特徴領域の画像に含まれる物体の画像を、モデル格納部2270が格納しているモデルに適応させることによって、特徴領域の画像に含まれる物体を表す、モデルにおける特徴パラメータの値を算出する。具体的には、パラメータ値算出部2260は、モデルにおける主成分の重みを算出する。特徴パラメータが主成分分析により得られた主成分ベクトルである場合、特徴パラメータの値としては、主成分ベクトルへの重みづけ係数を例示することができる。
 パラメータ量子化部2280は、出力部2207から特徴パラメータの値が出力されるべき特徴パラメータを選択する。具体的には、パラメータ量子化部2280は、主成分分析によって抽出されている主成分のうち、どのレベルの主成分まで重みづけ係数を出力するべきか決定する。例えば、パラメータ量子化部2280は、特徴領域の特徴の種類に応じて予め定められたレベルまで主成分の重みづけ係数を出力されるべき旨を決定する。パラメータ量子化部2280が決定したレベルの主成分に対する重みづけ係数は、対応付け処理部2206に供給される。
 対応付け処理部2206は、撮像画像から検出された特徴領域を特定する情報および重みづけ係数を、撮像画像に対応づける。具体的には、対応付け処理部2206は、撮像画像から検出された特徴領域を特定する情報および重みづけ係数を、撮像画像を動画構成画像として含む圧縮動画に対応づける。そして、出力部2207は、対応付け処理部2206によって特徴領域を特定する情報および重みづけ係数が対応付けされた圧縮動画を、画像処理装置2170に出力する。
 このように、出力部2207は、パラメータ値算出部2260が算出した特徴パラメータの値および特徴領域以外の領域の画像を出力する。より具体的には、出力部2207は、パラメータ量子化部2280が選択した特徴パラメータの値および圧縮部2230により画質が低減された特徴領域以外の領域の画像を出力する。
 なお、出力部2207から出力される圧縮動画は、特徴領域については画素情報を含まなくてよい。このように、出力部2207は、パラメータ値算出部2260が算出した主成分の重みおよび特徴領域以外の領域の画像を出力する。より具体的には、出力部2207は、パラメータ値算出部2260が算出した特徴パラメータの値および圧縮部2230により画質が低減された特徴領域以外の領域の画像を出力する。
 以上説明したように、画像処理装置2120によると、特徴領域に含まれる物体の画像については特徴パラメータ値で表現することによって、十分にデータ量を削減しつつ、後で物体の画像を再構成することができる情報を残すことができる。また、特徴領域に比べて重要度が低い背景領域については、画質を低減することでデータ量を著しく削減することができる。
 なお、モデル格納部2270は、異なる種類の物体のモデルを、当該種類に対応づけて格納してよい。そして、パラメータ値算出部2260は、撮像画像における特徴領域の画像に含まれる物体の画像を、特徴領域に撮像されている物体の種類に対応づけてモデル格納部2270が格納しているモデルに適応させることによって、特徴パラメータの値を算出してよい。この場合、出力部2207は、パラメータ値算出部2260が算出した特徴パラメータの値、特徴領域に撮像されている物体の種類、および圧縮部2230により画質が低減された特徴領域以外の領域の画像を出力することが望ましい。これにより、画像処理装置2170側で適切な種類のモデルを選択して再構成することができる。
 また、モデル格納部2270は、異なる方向から見た物体のモデルを、当該方向に対応づけて格納してよい。そして、パラメータ値算出部2260は、撮像画像における特徴領域の画像に含まれる物体の画像を、特徴領域に撮像されている物体が撮像された方向に対応づけてモデル格納部2270が格納しているモデルに適応させることによって、特徴パラメータの値を算出してよい。この場合、出力部2207は、パラメータ値算出部2260が算出した特徴パラメータの値、特徴領域に撮像されている物体が撮像された方向、および圧縮部2230により画質が低減された特徴領域以外の領域の画像を出力すること画望ましい。
 また、モデル格納部2270は、異なる照明条件で照明された物体のモデルを、当該照明条件に対応づけて格納してよい。そして、パラメータ値算出部2260は、撮像画像における特徴領域の画像に含まれる物体の画像を、特徴領域に撮像されている物体が照明された照明条件に対応づけてモデル格納部2270が格納しているモデルに適応させることによって、特徴パラメータの値を算出してよい。この場合、出力部2207は、パラメータ値算出部2260が算出した特徴パラメータの値、特徴領域に撮像されている物体が照明された照明条件、および圧縮部2230により画質が低減された特徴領域以外の領域の画像を出力することが望ましい。
 このように、モデル格納部2270は、物体の種類、物体の方向、および照明条件等に対応づけて複数のモデルを格納している。このため、特徴領域の物体の画像を、より適切なモデルを用いて表現することができるので、特徴領域の画質を維持しつつデータ量を削減することができる。
 図17は、圧縮部2230のブロック構成の一例を示す。圧縮部2230は、画像分割部2232、複数の固定値化部2234a-c(以下、固定値化部2234と総称する場合がある。)、複数の画質変換部2241a-d(以下、画質変換部2241と総称する。)を含む画質変換ユニット2240、および複数の圧縮処理部2236a-d(以下、圧縮処理部2236と総称する場合がある。)を有する。
 画像分割部2232は、画像取得部2250から複数の撮像画像を取得する。そして、画像分割部2232は、複数の撮像画像を、特徴領域と、特徴領域以外の背景領域とに分割する。具体的には、画像分割部2232は、複数の撮像画像を、複数の特徴領域のそれぞれと、特徴領域以外の背景領域とに分割する。このように、画像分割部2232は、複数の撮像画像のそれぞれを、特徴領域と背景領域とに分割する。
 そして、圧縮処理部2236は、特徴領域の画像である特徴領域画像と背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する。具体的には、圧縮処理部2236は、特徴領域画像を複数含む特徴領域動画と背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する。
 具体的には、画像分割部2232は、複数の撮像画像を分割することにより、複数の特徴の種類毎に特徴領域動画を生成する。そして、固定値化部2234は、特徴の種類毎に生成された複数の特徴領域動画に含まれる特徴領域画像のそれぞれについて、それぞれの特徴の種類の特徴領域以外の領域の画素値を固定値化する。具体的には、固定値化部2234は、特徴領域以外の領域の画素値を予め定められた画素値にする。
 画質変換部2241は、特徴領域の画像および背景領域の画像の画質を変換する。例えば、画質変換部2241は、分割された特徴領域の画像および背景領域の画像のそれぞれについて、解像度、階調数、ダイナミックレンジ、または含まれる色数の少なくともいずれかを変換する。そして、圧縮処理部2236は、特徴の種類毎に、複数の特徴領域動画を圧縮する。例えば、圧縮処理部2236は、特徴の種類毎に、複数の特徴領域動画をMPEG圧縮する。
 なお、固定値化部2234a、固定値化部2234b、および固定値化部2234cは、それぞれ第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、および第3の特徴の種類の特徴領域動画を固定値化する。また、画質変換部2241a、画質変換部2241b、画質変換部2241c、および画質変換部2241dは、それぞれ第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、第3の特徴の種類の特徴領域動画、および背景領域動画の画質を変換する。そして、圧縮処理部2236a、圧縮処理部2236b、圧縮処理部2236c、および圧縮処理部2236dは、第1の特徴の種類の特徴領域動画、第2の特徴の種類の特徴領域動画、第3の特徴の種類の特徴領域動画、および背景領域動画を圧縮する。
 なお、圧縮処理部2236a-cは、特徴の種類に応じて予め定められた強度で特徴領域動画を圧縮する。例えば、圧縮処理部2236は、特徴の種類に応じて予め定められた異なる解像度に特徴領域動画を変換して、変換した特徴領域動画を圧縮してよい。他にも、圧縮処理部2236は、MPEG符号化により特徴領域動画を圧縮する場合には、特徴の種類に応じて予め定められた異なる量子化パラメータで特徴領域動画を圧縮してよい。
 なお、圧縮処理部2236dは、背景領域動画を圧縮する。なお、圧縮処理部2236dは、圧縮処理部2236a-cのいずれによる強度より高い強度で背景領域動画を圧縮してよい。圧縮処理部2236によって圧縮された特徴領域動画および背景領域動画は、対応付け処理部2206に供給される。
 なお、特徴領域以外の領域が固定値化部2234によって固定値化されているので、圧縮処理部2236がMPEG符号化等によって予測符号化する場合に、特徴領域以外の領域において予測画像との間の画像の差分量を著しく低減することができる。したがって、特徴領域動画の圧縮率を著しく高めることができる。
 このように、圧縮部2230は、撮像画像の画質を低減することにより、画像処理装置2170への入力画像となる画像を生成する。具体的には、圧縮部2230は、撮像画像の解像度、階調数、用いられる色の数を低減したりすることにより、画像処理装置2170への入力画像となる画像を生成する。また、圧縮部2230は、一例として、撮像画像におけるより高い空間周波数成分をより低減することにより、画像処理装置2170への入力画像となる画像を生成してよい。
 なお、本図では、圧縮部2230が有する複数の圧縮処理部2236のそれぞれが複数の特徴領域の画像および背景領域の画像をそれぞれ圧縮したが、他の形態では、圧縮部2230は一の圧縮処理部2236を有してよく、一の圧縮処理部2236が、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で圧縮してよい。例えば、複数の特徴領域の画像および背景領域の画像が一の圧縮処理部2236に時分割で順次供給され、一の圧縮処理部2236が、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で順次圧縮してよい。
 他にも、一の圧縮処理部2236は、複数の特徴領域の画像情報および背景領域の画像情報を異なる量子化係数でそれぞれ量子化することによって、複数の特徴領域の画像および背景領域の画像をそれぞれ異なる強度で圧縮してよい。また、複数の特徴領域の画像および背景領域の画像がそれぞれ異なる画質の画像に変換された画像が一の圧縮処理部2236に供給され、一の圧縮処理部2236が、複数の特徴領域の画像および背景領域の画像をそれぞれ圧縮してよい。なお、当該画質変換処理は、一の画質変換ユニット2240でなされてよい。また、上記のように一の圧縮処理部2236が領域毎に異なる量子化係数で量子化したり、領域毎に異なる画質に変換された画像を一の圧縮処理部2236が圧縮する形態では、一の圧縮処理部2236は、一の画像を圧縮してもよく、本図で説明したように画像分割部2232によって分割された画像をそれぞれ圧縮してもよい。なお、一の圧縮処理部2236が一の画像を圧縮する場合には、画像分割部2232による分割処理および固定値化部2234による固定値化処理はなされなくてよいので、圧縮部2230は、画像分割部2232および固定値化部2234を有しなくてよい。
 図18は、画像処理装置2170のブロック構成の一例を示す。画像処理装置2170は、画像取得部2301、対応付け解析部2302、伸張制御部2310、伸張部2320、画像生成部2380、特徴領域情報取得部2360、モデル格納部2350、および出力部2340を備える。画像生成部2380は、拡大部2332および合成部2330を有する。
 画像取得部2301は、圧縮部2230により圧縮された圧縮動画を取得する。具体的には、画像取得部2301は、複数の特徴領域動画および背景領域動画を含む圧縮動画を取得する。より具体的には、画像取得部2301は、特徴領域情報および特徴パラメータが付帯された圧縮動画を取得する。このように、画像取得部2301は、出力部2207から出力された特徴パラメータの値および画質が低減された撮像画像を取得する。特に画像取得部2301は、特に、特徴領域以外の領域において画質が低減された撮像画像および特徴パラメータの値を取得する。
 そして、対応付け解析部2302は、画像取得部2301が取得した動画データを複数の特徴領域動画および背景領域動画と、特徴領域情報と、特徴領域パラメータ値とに分離して、複数の特徴領域動画および背景領域動画を伸張部2320に供給する。また、対応付け解析部2302は、特徴領域の位置および特徴の種類を伸張制御部2310および特徴領域情報取得部2360に供給する。また、対応付け解析部2302は、特徴パラメータ値を特徴領域情報取得部2360に供給する。このようにして、特徴領域情報取得部2360は、複数の撮像画像のそれぞれにおける特徴領域を示す情報(例えば特徴領域の位置を示す情報)、および特徴パラメータ値を取得することができる。特徴領域情報取得部2360は、取得した特徴領域の位置を示す情報および特徴パラメータ値を画像生成部2380に供給する。
 伸張制御部2310は、対応付け解析部2302から取得した特徴領域の位置および特徴の種類に応じて、伸張部2320による伸張処理を制御する。例えば、伸張制御部2310は、特徴領域の位置および特徴の種類に応じて圧縮部2230が動画の各領域を圧縮した圧縮方式に応じて、伸張部2320に圧縮動画が示す動画の各領域を伸張させる。
 以下に、伸張部2320が有する各構成要素の動作を説明する。伸張部2320は、複数の復号器2322a-d(以下、復号器2322と総称する。)を有する。復号器2322は、符号化された複数の特徴領域動画および背景領域動画のいずれかを復号する。具体的には、復号器2322a、復号器2322b、復号器2322c、および復号器2322dは、それぞれ第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画を復号する。伸張部2320は、復号して得られた第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画を、画像生成部2380に供給する。
 画像生成部2380は、第1特徴領域動画、第2特徴領域動画、第3特徴領域動、および背景領域動画、特徴領域情報に基づいて一の表示動画を生成する。そして、出力部2340は、対応付け解析部2302から取得した特徴領域情報および表示動画を表示装置2180または画像DB2175に出力する。なお、画像DB2175は、特徴領域情報が示す特徴領域の位置、特徴領域の特徴の種類、特徴領域の数を、表示動画に含まれる撮像画像を識別する情報に対応づけて、ハードディスク等の不揮発性の記録媒体に記録してよい。なお、出力部2340は、この発明における画像出力部として機能し得る。
 モデル格納部2350は、モデル格納部2270が格納しているモデルと同じもモデルを格納している。そして、画像生成部2380は、特徴領域に含まれる物体の画像をモデル格納部2350が格納しているモデルに適合させることにより、特徴領域に含まれる物体の高画質画像を生成してよい。具体的には、画像生成部2380は、モデル格納部2350が格納している主成分ベクトルを、特徴パラメータ値の一例としての重みづけ係数で重みづけすることによって、物体の高画質画像を生成してよい。このように、画像生成部2380は、特徴領域の画像に含まれる物体の画像を、特徴パラメータの値に基づいてモデルから生成する。
 なお、パラメータ値算出部2260は、撮像画像における特徴領域の画像に含まれる物体の画像を、モデル格納部2270が格納しているモデルに適応させることによって、特徴領域の画像に撮像されている物体の形状を表す、モデルにおける特徴パラメータの値を算出してよい。そして、圧縮部2230は、撮像画像における特徴領域および特徴領域以外の領域の画質を低減することにより、撮像画像を圧縮してよい。そして、出力部2207は、パラメータ値算出部2260が算出した特徴パラメータの値、および圧縮部2230により画質が低減された撮像画像を出力してよい。
 この場合、画像生成部2380は、特徴領域の画像に撮像されている物体の形状を特徴パラメータの値に基づいてモデルから生成し、生成した物体の形状および画像取得部2250が取得した撮像画像における特徴領域の画像の画素値を用いて、特徴領域の画像に撮像されている物体の画像を生成する。具体的には、画像生成部2380は、特徴領域の画像に撮像されている物体の形状を特徴パラメータの値に基づいてモデルから生成し、生成した物体の形状および伸張部2320によって伸張された特徴領域の画像の画素値を用いて、特徴領域の画像に撮像されている物体の画像を生成する。
 なお、特徴領域情報取得部2360は、出力部2207から圧縮動画に対応づけて出力された物体の種類、物体の方向、および照明条件を取得してよい。そして、画像生成部2380は、物体の種類、物体の方向、および照明条件に対応づけてモデル格納部2350が格納している主成分ベクトルを、特徴領域情報取得部2360が取得した重みづけ係数で重みづけすることによって、物体の高画質画像を生成してよい。
 画像拡大部2332は、特徴領域以外の領域の画像を拡大する。そして、合成部2330は特徴領域における物体の高画質画像と、当該拡大された特徴領域以外の領域の画像とを合成する。
 そして、出力部2340は、高画質画像および特徴領域以外の画像を含む画像を出力する。具体的には、出力部2340は、上述したように合成部2330により得られた撮像画像を動画構成画像として含む表示動画を出力する。
 図19は、圧縮部2230の他のブロック構成の一例を示す。本構成における圧縮部2230は、特徴の種類に応じた空間スケーラブルな符号化処理によって複数の撮像画像を圧縮する。
 本構成における圧縮部2230は、画質変換部2510、差分処理部2520、および符号化部2530を有する。差分処理部2520は、複数の階層間差分処理部2522a-d(以下、階層間差分処理部2522と総称する。)を含む。符号化部2530は、複数の符号器2532a-d(以下、符号器2532と総称する。)を含む。
 画質変換部2510は、画像取得部2250から複数の撮像画像を取得する。また、画質変換部2510は、特徴領域検出部2203が検出した特徴領域を特定する情報および特徴領域の特徴の種類を特定する情報を取得する。そして、画質変換部2510は、撮像画像を複製することにより、特徴領域の特徴の種類の数の撮像画像を生成する。そして、画質変換部2510は、生成した撮像画像を、特徴の種類に応じた解像度の画像に変換する。
 例えば、画質変換部2510は、背景領域に応じた解像度に変換された撮像画像(以後、低解像度画像と呼ぶ。)、第1の特徴の種類に応じた第1解像度に変換された撮像画像(第1解像度画像と呼ぶ。)、第2の特徴の種類に応じた第2解像度に変換された撮像画像(第2解像度画像と呼ぶ。)、および第3の特徴の種類に応じた第3解像度に変換された撮像画像(第3解像度画像と呼ぶ。)を生成する。なお、ここでは、第1解像度画像は低解像度画像より解像度が高く、第2解像度画像は第1解像度画像より解像度が高く、第3解像度画像は第2解像度画像より解像度が高いとする。
 そして、画質変換部2510は、低解像度画像、第1解像度画像、第2解像度画像、および第3解像度画像を、それぞれ階層間差分処理部2522d、階層間差分処理部2522a、階層間差分処理部2522b、および階層間差分処理部2522cに供給する。なお、画質変換部2510は、複数の撮像画像のそれぞれについて上記の画質変換処理することにより、階層間差分処理部2522のそれぞれに動画を供給する。
 なお、画質変換部2510は、特徴領域の特徴の種類に応じて、階層間差分処理部2522のそれぞれに供給する動画のフレームレートを変換してよい。例えば、画質変換部2510は、階層間差分処理部2522aに供給する動画より低いフレームレートの動画を階層間差分処理部2522dに供給してよい。また、画質変換部2510は、階層間差分処理部2522bに供給する動画より低いフレームレートの動画を階層間差分処理部2522aに供給してよく、階層間差分処理部2522cに供給する動画より低いフレームレートの動画を階層間差分処理部2522bに供給してよい。なお、画質変換部2510は、特徴領域の特徴の種類に応じて撮像画像を間引くことによって、階層間差分処理部2522に供給する動画のフレームレートを変換してよい。なお、画質変換部2510は、図17に関連して説明した画質変換部2241と同様の画質変換処理を行うことができる。
 階層間差分処理部2522dおよび符号器2532dは、複数の低解像度画像を含む背景領域動画を予測符号化する。具体的には、階層間差分処理部2522は、他の低解像度画像から生成された予測画像との差分画像を生成する。そして、符号器2532dは、差分画像を空間周波数成分に変換して得られた変換係数を量子化して、量子化された変換係数をエントロピー符号化等により符号化する。なお、このような予測符号化処理は、低解像度画像の部分領域毎に行われてよい。
 また、階層間差分処理部2522aは、画質変換部2510から供給された複数の第1解像度画像を含む第1特徴領域動画を予測符号化する。同様に、階層間差分処理部2522bおよび階層間差分処理部2522cは、それぞれ複数の第2解像度画像を含む第2特徴領域動画および複数の第3解像度画像を含む第3特徴領域動画を予測符号化する。以下に、階層間差分処理部2522aおよび符号器2532aの具体的な動作について説明する。
 階層間差分処理部2522aは、符号器2532dによる符号化後の第1解像度画像を復号して、復号した画像を第1解像度と同じ解像度の画像に拡大する。そして、階層間差分処理部2522aは、拡大した画像と低解像度画像との間の差分画像を生成する。このとき、階層間差分処理部2522aは、背景領域における差分値を0にする。そして、符号器2532aは、差分画像を符号器2532dと同様に符号化する。なお、階層間差分処理部2522aおよび符号器2532aによる符号化処理は、第1解像度画像の部分領域毎にされてよい。
 なお、階層間差分処理部2522aは、第1解像度画像を符号化する場合に、低解像度画像との間の差分画像を符号化した場合に予測される符号量と、他の第1解像度画像から生成された予測画像との間の差分画像を符号化した場合に予測される符号量とを比較する。後者の符号量の方が小さい場合には、階層間差分処理部2522aは、他の第1解像度画像から生成された予測画像との間の差分画像を生成する。なお、階層間差分処理部2522aは、低解像度画像または予測画像との差分をとらずに符号化した方が符号量が小さくなることが予測される場合には、低解像度画像または予測画像との間で差分をとらなくてもよい。
 なお、階層間差分処理部2522aは、背景領域における差分値を0にしなくてもよい。この場合、符号器2532aは、特徴領域以外の領域における差分情報に対する符号化後のデータを0にしてもよい。例えば、符号器2532aは、周波数成分に変換した後の変換係数を0にしてよい。なお、階層間差分処理部2522dが予測符号化した場合の動きベクトル情報は、階層間差分処理部2522aに供給される。階層間差分処理部2522aは、階層間差分処理部2522dから供給された動きベクトル情報を用いて、予測画像用の動きベクトルを算出してよい。
 なお、階層間差分処理部2522bおよび符号器2532bの動作は、第2解像度画像を符号化するという点、および第2解像度画像を符号化する場合に、符号器2532aによる符号化後の第1解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部2522bおよび符号器2532bの動作は階層間差分処理部2522aおよび符号器2532aの動作と略同一であるので、説明を省略する。同様に、階層間差分処理部2522cおよび符号器2532cの動作は、第3解像度画像を符号化するという点、および第3解像度画像を符号化を符号化する場合に、符号器2532bによる符号化後の第2解像度画像との差分をとる場合があるという点を除いて、階層間差分処理部2522aおよび符号器2532aの動作と略同一であるので、説明を省略する。
 以上説明したように、画質変換部2510は、複数の撮像画像のそれぞれから、画質を低画質にした低画質画像、および少なくとも特徴領域において低画質画像より高画質な特徴領域画像を生成する。そして、差分処理部2520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する。そして、符号化部2530は、特徴領域差分画像および低画質画像をそれぞれ符号化する。
 また、画質変換部2510は、複数の撮像画像から解像度が低減された低画質画像を生成して、差分処理部2520は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像を拡大した画像との間の特徴領域差分画像を生成する。また、差分処理部2520は、特徴領域において特徴領域画像と拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域差分画像を生成する。
 以上説明したように、圧縮部2230は、解像度が異なる複数の階層間の画像の差分を符号化することによって階層的に符号化する。このことからも明らかなように、本構成の圧縮部2230による圧縮方式の一部は、H.264/SVCによる圧縮方式を含むことが明らかである。なお、画像処理装置2170がこのような階層化された圧縮動画を伸張する場合には、各階層の動画データを復号して、階層間差分により符号化されている領域については、差分がとられた階層で復号された撮像画像との加算処理により、元の解像度の撮像画像を生成することができる。
 図20は、人間の顔における特徴点の一例を示す。図16および図17に関連して説明したように、モデル格納部2270およびモデル格納部2350は、特徴パラメータで物体を表現するモデルを格納している。以下に、モデル格納部2270およびモデル格納部2350が格納するモデルを生成する生成方法の一例として、物体の一例である人物の顔のモデルをAAM手法を用いて生成する場合について説明する。
 サンプルとなる人間の顔部分が表された複数の顔画像(以下、サンプル画像)の各々に対して、本図に示すように、顔形状を表す特徴点をn個設定する。なお、ここでは、特徴点の数は顔画像の画素数より少ないものとする。各特徴点は、例えば、1番目の特徴点は左目の左端、11番目の特徴点は眉の間の中央というように、顔のどの部位を示すかが予め定められていてよい。また、各特徴点は、手作業によって設定してもよいし、認識処理によって自動的に設定してもよい。
 そして、各サンプル画像中に設定された特徴点に基づいて、顔の平均形状を算出する。具体的には、各サンプル画像における、同じ部位を示す特徴点毎の位置座標の平均を求める。そして、各サンプル画像における顔形状を表す特徴点とその平均形状の位置座標に基づいて主成分分析を行う。その結果、任意の顔形状Sは、S=S+Σp(i=1~n)によって表現することができる。
 ここで、Sは顔形状の各特徴点の位置座標を並べて表現される形状ベクトル(x1,y1,・・・,x,y)であり、Sは平均顔形状における各特徴点の位置座標を並べて表現される平均顔形状ベクトル、pは主成分分析によって得られた顔形状についての第i主成分を表す固有ベクトル、bは各固有ベクトルpに対する重みづけ係数を表す。
 図21は、重みづけ係数bを変化させた場合の顔形状の変化の一例を模式的に示す。本図では、主成分分析によって得られた上位2つの主成分の固有ベクトルp、pに対する重みづけ係数b、bの値を変化させた場合の顔形状の変化の様子を模式的に表している。a)は、重みづけ係数bを変化させた場合の顔形状の変化を示しており、b)は、重みづけ係数bを変化させた場合の顔形状の変化を示している。a)およびb)のいずれにおいても、各主成分についての3つの顔形状の中央のものは、平均的な顔形状を示す。
 この例では、主成分分析の結果、第1主成分としては顔の輪郭形状に寄与する成分が抽出されており、重みづけ係数bを変化させることによって、a)左端に示す細長い顔からa)右端に示す丸顔まで顔形状が変化していることがわかる。同様に、第2主成分としては口の開閉状態と顎の長さに寄与する成分が抽出されており、重みづけ係数bを変化させることによって、b)左端に示すような口が開いた状態で顎が長い顔から、b)右端に示すような口が閉じられた状態で顎が短い顔まで、顔形状が変化することがわかる。なお、各主成分が結果としてどのような形状要素に寄与しているかは人間の解釈による。主成分分析により、使用された各サンプル画像においてより大きな形状の違いを表現するものがより低次の主成分として抽出される。
 図22は、サンプル画像を平均顔形状に変換して得られた画像の一例を示す。各サンプル画像は、平均顔形状に変換(ワーピング)される。具体的には、各特徴点について、各サンプル画像と平均顔形状との間でのシフト量が算出される。そして、当該シフト量に基づいて、各サンプル画像の画素毎の平均顔形状へのシフト量を算出して、各サンプル画像が画素毎に平均顔形状へワーピングされる。
 そして、平均顔形状に変換後のサンプル画像毎の各画素のR,G,Bの色成分の画素値を変数として主成分分析する。その結果、任意の顔画像の平均顔形状下でのR,G,Bの色成分の画素値は、A=A+Σqλ(i=1~m)によって近似することができる。
 ここで、Aは、平均顔形状下での各画素のR,G,B色成分の各々の画素値を並べて表現されるベクトル(r1,g1,b1,r2,g2,b2,・・・,rm,gm,bm)である。なお、r、g、bはそれぞれR,G,B色成分の画素値、1からmは各画素を識別する添え字、mは平均顔形状での総画素数を示す。なお、ベクトルの成分の並び順は上記の順に限定されない。
 また、Aは平均顔形状における各サンプル画像の画素毎のR,G,B色成分の各々の画素値の平均値を並べて表現される平均ベクトル、qは主成分分析によって得られた顔のR,G,B色成分の画素値についての第i主成分を表す固有ベクトル、λは各固有ベクトルqに対する重みづけ係数を表す。
 図23は、重みづけ係数qを変化させた場合の画素値の変化の一例を模式的に示す。本図では、主成分分析によって得られた上位2つの主成分の固有ベクトルq、qに対する重みづけ係数λ、λの値を変化させた場合の顔の画素値の変化の様子を模式的に表している。a)は、重みづけ係数λを変化させた場合の画素値の変化を示しており、b)は、重みづけ係数λを変化させた場合の画素値の変化を示している。a)およびb)のいずれにおいても、各主成分についての3つの顔形状の中央のものは、平均的な画素値を示す。
 この例では、主成分分析の結果、第1主成分としてはヒゲの有無に寄与する成分が抽出されており、重みづけ係数λを変化させることによって、a)左端に示すヒゲのない顔からa)右端に示すヒゲの濃い顔まで変化することがわかる。第2主成分としては眉の濃さに寄与する成分が抽出されており、重みづけ係数λを変化させることによって、b)左端に示すような眉が薄い顔から、b)右端に示すような眉が濃い顔まで変化することがわかる。
 以上、図20から図23にかけて説明した処理によって、顔のモデルが生成される。このモデルは、顔形状を表す複数の固有ベクトルpと、平均顔形状下での顔の画素値を表す固有ベクトルqとによって、顔を表現する。モデルが有する各固有ベクトルの合計数は、顔画像を形成する画素数よりも大幅に少ない。なお、上記の例では、形状および画素値を顔形状とR,G,B色成分の画素値についての別個の重みづけ係数b、λによって、個別の顔画像を表現したが、顔形状と色成分の画素値のバリエーションには相関性があることから、特徴点および画素値の双方を含む特徴パラメータを主成分分析することもできる。
 次に、モデル格納部2270が格納しているモデルを用いて特徴領域に含まれる物体の画像を圧縮する処理の一例を説明する。パラメータ値算出部2260は、特徴領域に含まれる入力顔画像を正規化して、平均顔形状化でのR,G,Bの色成分の画素値を算出する。なお、入力顔画像は、かならずしも正面からの画像でなかったり、照明条件がサンプル画像を撮像した場合の照明条件と異なる場合がある。したがって、ここでいう正規化とは、上記で説明した正面の顔の特徴点を揃える処理だけでなく、斜めから撮像されて得られた入力顔画像の向きを正面から撮像された顔画像に変換する変換処理であったり、照明による影の影響を除去したりする影除去処理等のように、サンプル画像と同等の撮影環境で撮像された顔画像に変換する処理を含む。
 そして、パラメータ値算出部2260は、平均顔に対する画素値との差を主成分ベクトルqに射影することにより、重みづけ係数λを算出する。具体的には、パラメータ値算出部2260は、主成分ベクトルqとの内積により重みづけ係数λを算出することができる。また、パラメータ値算出部2260は、顔の特徴点Sについても、上述した画素値Aの算出処理と同様の処理により算出する。具体的には、パラメータ値算出部2260は、平均顔に対する特徴点の位置の差を主成分ベクトルpに射影することにより重みづけ係数bを算出する。
 以上説明したようにして、パラメータ値算出部2260は、重みづけ係数bおよびλを、特徴パラメータの値として算出することができる。次に、画像生成部2380による高画質画像の生成処理について説明する。
 画像生成部2380は、取得した重みづけ係数λ、平均顔の画素値A、および主成分ベクトルqを用いて、平均顔形状下における画素値Aを算出する。また、画像生成部2380は、取得した重みづけ係数b、平均顔の特徴点S、および主成分ベクトルpを用いて、特徴点Aを算出する。そして、画像生成部2380は、画素値Aおよび特徴点Aで表される画像に対して、上記の正規化処理のうち特徴点を揃える処理を除く処理の逆変換処理を施す。なお、上記の正規化処理の内容は、画像処理装置2120から画像処理装置2170に送信され、画像生成部2380が上記逆変換処理をする場合に使用されてよい。
 以上の処理により、画像生成部2380は、出力部2207から出力された撮像画像における特徴領域の画像から、当該撮像画像より高画質な高画質画像を生成する。具体的には、画像生成部2380は、出力部2207から出力された撮像画像における特徴領域の画像に比べて、より高解像度の画像、よりシャープな画像、よりノイズが少ない画像、より階調数の多い画像、あるいはより色数の多い画像を生成することができる。
 図24は、モデル格納部2270およびモデル格納部2350が格納しているモデルの一例をテーブル形式で示す。モデル格納部2270およびモデル格納部2350は、複数の表情および複数の方向のそれぞれの組み合わせ毎に、モデルを格納している。表情としては、喜怒哀楽のそれぞれの状態にあるときの顔、および真顔を含み、方向としては、正面、上方、下方、右方、左方、および後方を含む。
 パラメータ値算出部2260は、特徴領域に含まれる顔画像の画像内容に基づいて顔の表情および顔の方向を特定して、特定した表情および方向の組み合わせに対応づけてモデル格納部2270が格納しているモデルを用いて、上述の重みづけ係数を算出することができる。
 なお、出力部2207は、使用したモデルを識別する情報を画像処理装置2170に送信してよい。そして、画像生成部2380は、当該情報によって識別されるモデルを用いて、上述の再構成処理をすることができる。
 なお、画像生成部2380は、口および/または目の形状から表情を特定することができ、目、口、鼻、および耳の位置関係等から顔の方向を特定することができる。なお、画像処理装置2120が顔の表情および顔の方向を特定してよく、出力部2207から撮像画像に対応づけて顔の表情および顔の方向が出力されてよい。
 また、モデル格納部2270およびモデル格納部2350は、顔の表情および向きの他に、上述したように照明条件に対応づけてモデルを格納してよい。例えば、モデル格納部2270およびモデル格納部2350は、照明強度および照明の方向に対応づけてモデルを格納してよい。そして、パラメータ値算出部2260は、特徴領域に含まれる顔画像の画像内容に基づいて顔への照明条件を特定してよい。例えば、パラメータ値算出部2260は、影の位置および大きさに基づいて、照明強度および照明方向を特定して、特定した照明強度および照明方向に対応づけてモデル格納部2270が格納しているモデルを用いて、重みづけ係数を算出することができる。
 なお、上記の例では、顔全体を表現するモデルの生成および当該モデルを用いた特徴パラメータ抽出および再構成過程を説明した。このような顔全体のモデルの他に、画像処理システム2010は、顔の部位毎のモデルを用いることができる。他にも、画像処理システム2010は、性別および/または人種毎の顔(あるいは顔の部位毎)のモデルを用いることができる。また、画像処理システム2010は、人物のモデルの他に、車両、船舶等、画像処理システム2010が監視対象とする物体の種別毎にモデルを格納することができる。そして画像生成部2380は、種別に応じてモデルを選択して再構成することもできる。このような種別は、画像処理装置2120において検出され、撮像画像に対応づけて画像処理装置2170に送信されてよい。
 以上説明したように、モデル格納部2270およびモデル格納部2350は、異なる種類の物体のモデルを、当該種類に対応づけて格納することができる。そして、特徴領域情報取得部2360は、入力画像における特徴領域に撮像されている物体の種類を示す情報を取得する。そして、画像生成部2380は、撮像画像における特徴領域に含まれる物体の画像を、特徴領域情報取得部2360が取得した特徴領域に撮像されている物体の種類に対応づけてモデル格納部2350が格納しているモデルに適応させることによって、高画質画像に変換する。
 なお、上述したように、モデル格納部2270およびモデル格納部2350は、学習データの一例としてのモデルを、オブジェクトの種類を識別する情報の一例としての顔の部位(例えば、目、鼻、口など)毎に格納することができる。ここで、学習データとしては、上記モデルの他に、オブジェクトの多数のサンプル画像からそれぞれ抽出された、オブジェクトの画像の低周波成分および高周波成分を含んでよい。なお、複数のオブジェクトの種類のそれぞれについてオブジェクトの画像の低周波成分をK-means法等によってクラスタリングすることによって、複数のオブジェクトの種類のそれぞれにおいてオブジェクトの画像の低周波成分は複数のクラスタにクラスタリングされていてよい。また、各クラスタ毎に代表的な低周波成分(例えば、重心値)が定められていてよい。なお、モデル格納部2270は、オブジェクトの画像の低周波成分に対応づけて高周波成分を特定する情報を記憶してよい。また、モデル格納部2350は、高周波成分を特定する情報に対応づけて高周波成分を記憶してよい。
 パラメータ値算出部2260は、撮像画像に含まれるオブジェクトの画像から低周波成分を抽出する。そして、パラメータ値算出部2260は、当該オブジェクの種類のオブジェクトのサンプル画像から抽出された低周波成分のクラスタのうち、抽出した低周波成分に適合する値が代表的な低周波成分として定められたクラスタを特定する。そして、パラメータ値算出部2260は、特定したクラスタに含まれる低周波成分に対応づけてモデル格納部2270が格納している高周波成分のクラスタを特定する情報を特定する。このようにして、パラメータ値算出部2260は、撮像画像に含まれるオブジェクトから抽出された低周波成分に相関のある高周波成分のクラスタを特定することができる。パラメータ値算出部2260が特定した高周波成分のクラスタを特定する情報は、特徴領域を特定する情報に対応づけて出力部2207から出力される。
 出力部2207から出力されて画像取得部2301が取得した高周波成分のクラスタを特定する情報は、対応付け解析部2302で抽出され、特徴領域情報取得部2360を通じて画像生成部2380に供給される。画像生成部2380は、当該高周波成分のクラスタを特定する情報に対応づけてモデル格納部2350が格納している高周波成分のクラスタを代表する高周波成分を用いて、オブジェクトの画像をより高画質な画像に変換してよい。例えば、画像生成部2380は、各オブジェクトの中心から顔上の処理対象位置までの距離に応じた重みでオブジェクト毎に選択された当該高周波成分をオブジェクトの画像に加算してよい。なお、当該代表する高周波成分は、閉ループ学習によって生成されてよい。このように、パラメータ値算出部2260は、各オブジェクト毎に学習することによって生成された学習データの中から望ましい学習データをオブジェクト毎に選択することができる。このため、画像生成部2380は、オブジェクト毎に選択された望ましい学習データを利用することができるので、オブジェクトの画像をより高い精度で高画質化することができる場合がある。なお、上記の例では、高周波成分のクラスタを特定する情報が出力部2207から出力されるとしたが、低周波成分のクラスタを特定する情報が出力部2207から出力されてもよい。この場合、モデル格納部2350が当該低周波成分のクラスタを特定する情報に対応づけて高周波のクラスタを格納している。そして、画像生成部2380は、出力部2207から出力された低周波成分のクラスタを特定する情報に対応づけてモデル格納部2350が格納している高周波成分のクラスタを代表する高周波成分をオブジェクトの画像に加算することによって、オブジェクトの画像を高画質化することができる。
 以上のように、画像処理装置2120および画像処理装置2170によると、主成分分析(PCA)に基づいて特徴領域の画像を再構成することができる。なお、画像処理装置2120および画像処理装置2170に係わる画像再構成手法、および当該画像再構成用の学習法としては、主成分分析(PCA)による学習・画像再構成の他に、局所保存投影(locality preserving projection:LPP)、線形判別分析(Linear Discriminant Analysis:LDA)、独立成分分析(Independent component analysis:ICA)、多次元スケーリング(multidimensional scaling:MDS)、サポートベクターマシン(サポートベクター回帰)、ニューラルネットワーク、隠れマルコフモデル、Bayes推論、最大事後確率推定、反復逆投影、Wavelet変換、局所線形埋め込み(locally linear embedding:LLE)、マルコフランダム場(Markov random field:MRF)等の手法を用いることができる。
 なお、上記の説明では、2次元のモデルを利用する場合を例に挙げて画像処理システム2010の各構成要素の機能および動作を説明したが、画像処理システム2010は、3次元のモデルを利用してもよい。すなわち、モデル格納部2270およびモデル格納部2350は、3次元のモデルを格納してよい。なお、3次元モデルを使用する場合には、上述のベクトルAに奥行きを示すz成分を追加することで実現することができる。例えば、ベクトルAを(r1,g1,b1,z1,r2,g2,b2,z1,・・・,rm,gm,bm、zm)とすることで、3次元のモデルを実現することができる。
 なお、モデル格納部2270およびモデル格納部2350が格納する3次元モデルは、異なる方向から物体が撮像されて得られた複数のサンプル画像から生成された3次元画像を利用して生成することができる。例えば、複数の物体のそれぞれの3次元画像について、上述した2次元のモデルを生成する場合と同様の方法によって3次元モデルを生成することができる。そして、パラメータ値算出部2260は、複数の撮像画像のそれぞれにおける特徴領域のうち、異なる方向から同じ物体が撮像されている画像を含む特徴領域を特定し、特定した特徴領域に含まれる当該物体の画像に基づく当該物体の3次元画像を3次元モデルに適応させることによって、特徴パラメータの値を算出する。なお、パラメータ値算出部2260は、異なる方向から撮像された同じ物体の画像における視差情報に基づいて、当該物体の3次元画像を生成することができる。また、当該視差情報に基づいて、それぞれの特徴領域に含まれる物体の画像が撮影された方向が特定される。出力部2207は、当該撮影方向を、特徴領域以外の領域の画像および特徴パラメータの値に対応づけて出力してよい。
 そして、画像生成部2380は、異なる方向から同じ物体が撮像されている画像を含む特徴領域の画像に含まれる物体の3次元画像を、特徴パラメータの値に基づいて3次元モデルから生成し、生成した3次元画像に基づいて、特徴領域の画像に含まれる物体の2次元画像を生成する。なお、特徴領域情報取得部2360は、出力部2207から出力されて画像取得部2301が取得した撮影方向を取得して、取得した撮影方向を画像生成部2380に供給する。画像生成部2380は、当該撮影方向および3次元画像に基づいて2次元空間に投影することによって、物体の2次元画像を生成することができる。そして、出力部2340は、画像生成部2380により生成された2次元画像と画像取得部2301が取得した特徴領域以外の領域の画像とを合成した画像を出力する。なお、上記撮影方向は、3次元画像から2次元画像を生成する場合に用いられる方向情報の一例であり、方向情報は、3次元データを2次元空間に投影する投影角度であってよい。
 また、撮像画像に含まれている物体の画像と、平均画像(例えば、平均顔画像)との間の差が予め定められた値より大きい場合には、圧縮部2230が特徴領域の画像を圧縮してよい。これにより、特徴領域に含まれる物体の画像が平均画像から大きく乖離している場合に、再構成精度が著しく低下してしまうことを未然に防ぐことができる。
 図25は、他の実施形態に係る画像処理システム2020の一例を示す。本実施形態における画像処理システム2020の構成は、撮像装置2100a-dがそれぞれ画像処理部2804a-d(以下、画像処理部2804と総称する。)を有する点を除いて、図15で説明した画像処理システム2010の構成と同じとなっている。
 画像処理部2804は、画像処理装置2120に含まれる構成要素のうち、画像取得部2250を除く構成要素を有している。そして、画像処理部2804に含まれる各構成要素の機能および動作は、画像処理装置2120に含まれる各構成要素が圧縮動画伸張部2202による伸張処理によって得られた撮像動画を処理することに替えて、撮像部2102によって撮像された撮像動画を処理するという点を除いて、画像処理装置2120に含まれる各構成要素の機能および動作と略同一であってよい。このような構成の画像処理システム2020においても、図15から図24にかけて画像処理システム2010に関連して説明した効果と略同一の効果が得ることができる。
 なお、画像処理部2804は、撮像部2102からRAW形式で表された複数の撮像画像を含む撮像動画を取得して、取得した撮像動画に含まれるRAW形式で表された複数の撮像画像(例えば、特徴領域以外の領域の画像)をRAW形式のまま圧縮してよい。なお、画像処理部2804は、RAW形式で表された複数の撮像画像から1以上の特徴領域を検出してよい。また、画像処理部2804は、圧縮されたRAW形式の複数の撮像画像を含む撮像動画を圧縮してよい。なお、画像処理部2804は、撮像動画を、図15~図25に関連して画像処理装置2120の動作として説明した圧縮方法で圧縮することができる。なお、画像処理装置2170は、画像処理部2804から取得した動画を伸張することにより、RAW形式で表された複数の撮像画像(例えば、特徴領域以外の領域の画像)を取得することができる。画像処理装置2170は、伸張することにより取得されたRAW形式で表された複数の撮像画像をそれぞれ領域毎に拡大して、領域毎に同時化処理を施す。このとき、画像処理装置2170は、特徴領域以外の領域より、特徴領域においてより高精度な同時化処理を施してよい。
 画像の全領域をモデルを用いて符号化すると、演算量が増大してしまう。また、重要度が低い領域までモデルを用いて符号化しようとすると、再構成の精度が低下してしまう虞がある。画像処理システム2020によると、これらの課題を解決することができる場合がある。
 図15から図25に関連して、画像処理装置2120においてモデルを用いて算出された特徴パラメータが画像処理装置2170に送信され、画像生成部2380において特徴パラメータを用いて特徴領域の画像を復号する画像処理について説明した。ここで、画像生成部2380により得られた画像に対して、画像生成部380による高画質化処理を施してよい。つまり画像生成部2380からの出力画像を画像処理装置170への入力とすることにより、高画質画像を生成する。この場合、画像処理装置170は、対応付け解析部、特徴領域情報取得部360、伸張制御部310、特徴領域情報取得部360、伸張部320は有さなくてよく、画像取得部301、モデル格納部350、および、画像生成部380の機能により、画像生成部2380により得られた出力画像から高画質画像を生成することができる。
 ここで、画像生成部2380が用いるモデルと画像生成部380が用いるモデルとは、異なるモデルであってよい。画像生成部2380が用いるモデルは、パラメータ値算出部2260が用いるモデルと同じであり、画像生成部380が用いるモデルとは区別してここでは第2モデルと呼ぶ。すなわち、モデル格納部2270は、物体が特徴パラメータで表現された第2モデルを格納する第2モデル格納部として機能する。
 また、パラメータ値算出部2260は、撮像画像における特徴領域の画像に含まれる物体の画像を、モデル格納部2270が格納している第2モデルに適応させることによって、撮像画像における特徴領域の画像に含まれる物体を表す、第2モデルにおける特徴パラメータの値を算出する。そして、出力部2207は、パラメータ値算出部2260が算出した特徴パラメータの値および撮像画像における特徴領域以外の領域の画像を出力する中間出力部として機能する。
 この場合に、画像取得部2301は、出力部207から出力された特徴パラメータの値および画質が低減された撮像画像における特徴領域以外の領域の画像を取得する中間画像取得部として機能する。そして、画像生成部380は、撮像画像における特徴領域の画像に含まれる物体の画像を、特徴パラメータの値に基づいて第2モデルから生成する中間画像生成部として機能する。そして、出力部2340は、第2モデルから生成された物体の画像と画像取得部2301が取得した特徴領域以外の領域の画像とを合成した画像を出力する画像出力部として機能する。
 画像取得部301は、出力部2340が出力した画像を入力画像として取得する。そして、画像生成部380は、画像取得部301が取得した入力画像における特徴領域に含まれる物体の画像を、モデル格納部350が格納しているモデルに適合させることにより、特徴領域に含まれる物体の画像を高画質化した高画質画像を生成する。
 図26は、画像処理装置120、画像処理装置170、画像処理装置2120、画像処理装置2170の少なくともいずれかとして機能するコンピュータ1500のハードウェア構成の一例を示す。コンピュータ1500は、CPU周辺部と、入出力部と、レガシー入出力部とを備える。CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、及び表示デバイス1580を有する。入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、及びCD-ROMドライブ1560を有する。レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、及び入出力チップ1570を有する。
 ホスト・コントローラ1582は、RAM1520と、より高い転送レートでRAM1520をアクセスするCPU1505、及びグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、及びRAM1520に格納されたプログラムの内容に応じて動作して、各部の制御をする。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
 入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD-ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、及びデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD-ROMドライブ1560は、CD-ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。
 入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、及び入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、コンピュータ1500が起動するときに実行するブート・プログラム、あるいはコンピュータ1500のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、及び通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、あるいはパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
 CPU1505が実行するプログラムは、フレキシブルディスク1590、CD-ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。CPU1505により実行されるプログラムは、コンピュータ1500を、図1から図14に関連して説明した画像処理装置120が有する各構成要素として機能させる。また、CPU1505により実行されるプログラムは、コンピュータ1500を、図1から図14に関連して説明した画像処理装置170が有する各構成要素として機能させる。また、CPU1505により実行されるプログラムは、コンピュータ1500を、図15から図24に関連して説明した画像処理装置2120が有する各構成要素として機能させる。また、CPU1505により実行されるプログラムは、コンピュータ1500を、図15から図24に関連して説明した、画像処理装置2170が有する各構成要素として機能させる。
 以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD-ROM1595の他に、DVDまたはPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用して、ネットワークを介したプログラムとして、画像処理装置120、画像処理装置170、画像処理装置2120、画像処理装置2170として機能するコンピュータ1500に提供してもよい。このように、プログラムにより制御されるコンピュータ1500が、画像処理装置120、画像処理装置170、画像処理装置2120、画像処理装置2170として機能する。
 以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、請求の範囲の記載から明らかである。
 請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。

Claims (32)

  1.  撮像された入力画像を取得する画像取得部と、
     前記入力画像における特徴領域を示す情報を取得する特徴領域情報取得部と、
     特徴パラメータで物体が表現されたモデルを格納するモデル格納部と、
     前記入力画像における前記特徴領域に含まれる物体の画像を前記モデルに適応させることによって、前記入力画像における前記特徴領域に含まれる物体の画像を、前記入力画像より高画質な高画質画像に変換する画像生成部と、
     前記高画質画像および前記特徴領域以外の画像を含む画像を出力する出力部と
    を備える画像処理システム。
  2.  前記モデル格納部は、統計的な特徴パラメータで物体が表現された前記モデルを格納する
    請求項1に記載の画像処理システム。
  3.  前記モデル格納部は、主成分分析に基づく主成分で物体が表現された前記モデルを格納する
    請求項1に記載の画像処理システム。
  4.  前記モデル格納部は、主成分分析に基づく主成分で物体の形状が表現された前記モデルを格納する
    請求項3に記載の画像処理システム。
  5.  前記モデル格納部は、主成分分析に基づく主成分で物体の色が表現された前記モデルを格納する
    請求項3に記載の画像処理システム。
  6.  前記特徴領域情報取得部は、前記入力画像における前記特徴領域に撮像されている物体の種類を示す情報を取得し、
     前記モデル格納部は、異なる種類の物体の前記モデルを、当該種類に対応づけて格納しており、
     前記画像生成部は、前記入力画像における前記特徴領域に含まれる物体の画像を、前記特徴領域情報取得部が取得した前記特徴領域に撮像されている物体の種類に対応づけて前記モデル格納部が格納しているモデルに適応させることによって、前記高画質画像に変換する
    請求項3に記載の画像処理システム。
  7.  前記入力画像における前記特徴領域に撮像されている物体が撮像された方向を特定する方向特定部
    をさらに備え、
     前記モデル格納部は、異なる方向から見た物体の前記モデルを、当該方向に対応づけて格納しており、
     前記画像生成部は、前記入力画像における前記特徴領域に含まれる物体の画像を、前記方向特定部が特定した方向に対応づけて前記モデル格納部が格納しているモデルに適応させることによって、前記高画質画像に変換する
    請求項3に記載の画像処理システム。
  8.  前記入力画像における前記特徴領域に撮像されている物体が照明された照明条件を特定する照明条件特定部
    をさらに備え、
     前記モデル格納部は、異なる照明条件で照明された物体の前記モデルを、当該照明条件に対応づけて格納しており、
     前記画像生成部は、前記入力画像における前記特徴領域に含まれる物体の画像を、前記照明条件特定部が特定した照明条件に対応づけて前記モデル格納部が格納しているモデルに適応させることによって、前記高画質画像に変換する
    請求項3に記載の画像処理システム。
  9.  前記画像生成部は、前記入力画像における前記特徴領域に含まれる物体の画像を、前記モデルに適応させることによって、前記入力画像より高解像度な前記高画質画像を生成する
    請求項3に記載の画像処理システム。
  10.  前記画像生成部は、前記入力画像における前記特徴領域以外の領域の画像を、前記高画質画像と同じ解像度の画像に拡大し、拡大して得られた画像と、前記高画質画像とを合成して一の画像を生成する
    をさらに備える請求項3に記載の画像処理システム。
  11.  前記画像取得部は、撮像画像が低画質化された前記入力画像を取得し、
     前記特徴領域情報取得部は、前記撮像画像から検出された特徴領域の位置を示す情報を取得する
    請求項3に記載の画像処理システム。
  12.  前記撮像画像から、特徴領域を検出する特徴領域検出部と、
     前記撮像画像の画質を低減することにより前記入力画像を生成する圧縮部と、
     前記入力画像と、前記撮像画像から検出された前記特徴領域の位置を示す情報とを対応づけて出力する出力部と
    をさらに備え、
     前記画像取得部は、前記出力部から出力された前記入力画像を取得し、
     前記特徴領域情報取得部は、前記出力部から前記入力画像に対応づけて出力された前記特徴領域の位置を示す情報を取得する
    請求項11に記載の画像処理システム。
  13.  前記圧縮部は、前記撮像画像における前記特徴領域以外の領域の画像を前記特徴領域の画像と異なる画質にすることにより、前記入力画像を生成する
    請求項12に記載の画像処理システム。
  14.  前記圧縮部は、前記撮像画像における前記特徴領域以外の領域の画像を前記特徴領域の画像より低画質にすることにより、前記入力画像を生成する
    請求項13に記載の画像処理システム。
  15.  前記特徴領域検出部は、前記撮像画像から、複数の特徴領域を検出し、
     前記圧縮部は、前記撮像画像における前記複数の特徴領域の画像の画質を、前記特徴領域の特徴に応じて予め定められた画質に低減することにより、前記入力画像を生成する
    請求項14に記載の画像処理システム。
  16.  前記特徴領域検出部は、前記撮像画像から、撮像されている物体の種類がそれぞれ異なる複数の特徴領域を検出し、
     前記圧縮部は、前記撮像画像における前記複数の特徴領域の画像の画質を、前記特徴領域に撮像されている物体の種類に応じて予め定められた画質に低減することにより、前記入力画像を生成する
    請求項15に記載の画像処理システム。
  17.  特徴領域の特徴に対応づけて画質を取得する画質取得部
    をさらに備え、
     前記圧縮部は、前記撮像画像における前記複数の特徴領域の画像の画質を、前記画質取得部がそれぞれの特徴領域の特徴に対応づけて取得した画質に低減することにより、前記入力画像を生成する
    請求項15に記載の画像処理システム。
  18.  前記圧縮部は、前記撮像画像の解像度を低減することにより、前記入力画像を生成する
    請求項12に記載の画像処理システム。
  19.  前記圧縮部は、前記撮像画像の階調数を低減することにより、前記入力画像を生成する
    請求項12に記載の画像処理システム。
  20.  前記圧縮部は、前記撮像画像に用いられる色の数を減少することにより、前記入力画像を生成する
    請求項12に記載の画像処理システム。
  21.  前記圧縮部は、前記撮像画像におけるより高い空間周波数成分をより低減することにより、前記入力画像を生成する
    請求項12に記載の画像処理システム。
  22.  物体が特徴パラメータで表現された第2モデルを格納する第2モデル格納部と、
     撮像画像から特徴領域を検出する特徴領域検出部と、
     前記撮像画像における前記特徴領域の画像に含まれる物体の画像を、前記第2モデル格納部が格納している前記第2モデルに適応させることによって、前記撮像画像における前記特徴領域の画像に含まれる物体を表す、前記第2モデルにおける特徴パラメータの値を算出するパラメータ値算出部と、
     前記パラメータ値算出部が算出した特徴パラメータの値および前記撮像画像における前記特徴領域以外の領域の画像を出力する中間出力部と、
     前記中間出力部から出力された前記特徴パラメータの値および画質が低減された前記撮像画像における前記特徴領域以外の領域の画像を取得する中間画像取得部と、
     前記撮像画像における前記特徴領域の画像に含まれる物体の画像を、特徴パラメータの値に基づいて前記第2モデルから生成する中間画像生成部と、
     前記第2モデルから生成された前記物体の画像と前記中間画像取得部が取得した前記特徴領域以外の領域の画像とを合成した画像を出力する画像出力部と
    をさらに備え、
     前記画像取得部は、前記画像出力部が出力した画像を前記入力画像として取得する
    請求項1に記載の画像処理システム。
  23.  前記撮像画像における前記特徴領域以外の領域の画像の画質を低減することにより、前記特徴領域以外の領域の画像を圧縮する圧縮部
    をさらに備え、
     前記中間出力部は、前記パラメータ値算出部が算出した特徴パラメータの値および前記圧縮部により画質が低減された前記特徴領域以外の領域の画像を出力する
    請求項22に記載の画像処理システム。
  24.  前記第2モデル格納部は、物体が統計的な特徴パラメータにより表現された前記第2モデルを格納する
    請求項23に記載の画像処理システム。
  25.  前記画像取得部は、複数の動画構成画像を含む入力動画を取得し、
     前記特徴領域情報取得部は、前記複数の動画構成画像のそれぞれにおける特徴領域の位置を示す情報を取得し、
     前記画像処理システムは、
     前記複数の動画構成画像のそれぞれにおける前記特徴領域のうち、予め定めた値より高い相関を有する第1特徴領域および第2特徴領域を選択する特徴領域選択部
    をさらに備え、
     前記画像生成部は、前記第1特徴領域に含まれる物体の画像および前記第2特徴領域に含まれる物体の画像を、それぞれ前記モデルに適応させることによって、それぞれ第1高画質画像および第2高画質画像に変換し、前記第1高画質画像、前記第2高画質画像、および前記第1特徴領域と前記第2特徴領域との間の位置差を用いて、前記第1特徴領域に含まれる物体の画像および前記第2特徴領域に含まれる物体の画像より高解像度な前記高画質画像を生成する
    請求項1に記載の画像処理システム。
  26.  前記画像生成部は、前記第1高画質画像と前記第2高画質画像とを前記位置差に基づいて合成することによって、前記高画質画像を生成する
    請求項25に記載の画像処理システム。
  27.  前記画像生成部は、前記第1高画質画像と前記第2高画質画像とを、前記位置差だけずらして重ね合わせることによって、前記高画質画像を生成する
    請求項26に記載の画像処理システム。
  28.  物体が撮像された入力画像を取得する画像取得段階と、
     前記入力画像における特徴領域を示す情報を取得する特徴領域情報取得段階と、
     特徴パラメータで物体が表現されたモデルを格納するモデル格納段階と、
     前記入力画像における前記特徴領域に含まれる物体の画像を前記モデルに適応させることによって、前記入力画像よりにおける前記特徴領域に含まれる物体の画像を、前記入力画像より高画質な高画質画像に変換する画像生成段階と、
     前記高画質画像および前記特徴領域以外の画像を含む画像を出力する出力段階と
    を備える画像処理方法。
  29.  画像処理システム用のプログラムを記憶するコンピュータ読取可能な媒体であって、該プログラムは、コンピュータを、
     物体が撮像された入力画像を取得する画像取得部、
     前記入力画像における特徴領域を示す情報を取得する特徴領域情報取得部、
     特徴パラメータで物体が表現されたモデルを格納するモデル格納部、
     前記入力画像における前記特徴領域に含まれる物体の画像を前記モデルに適応させることによって、前記入力画像よりにおける前記特徴領域に含まれる物体の画像を、前記入力画像より高画質な高画質画像に変換する画像生成部
     前記高画質画像および前記特徴領域以外の画像を含む画像を出力する出力部
    として機能させる
    コンピュータ読取可能な媒体。
  30.  入力画像を取得する画像取得部と、
     オブジェクトの種類に対応づけて、オブジェクトの画像の高周波成分を格納するオブジェクト画像情報格納部と、
     前記入力画像に含まれる複数のオブジェクトのそれぞれの画像を、オブジェクトの種類に対応づけて前記オブジェクト画像情報格納部が格納している高周波成分を用いて、より高画質な高画質画像に変換する画像生成部と
    を備える画像処理システム。
  31.  入力画像を取得する画像取得段階と、
     オブジェクトの種類に対応づけて、オブジェクトの画像の高周波成分を格納するオブジェクト画像情報格納段階と、
     前記入力画像に含まれる複数のオブジェクトのそれぞれの画像を、オブジェクトの種類に対応づけて前記オブジェクト画像情報格納段階において格納されている高周波成分を用いて、より高画質な高画質画像に変換する画像生成段階と
    を備える画像処理システム。
  32.  画像処理システム用のプログラムを記憶するコンピュータ読取可能な媒体であって、該プログラムは、コンピュータを、
     入力画像を取得する画像取得部、
     オブジェクトの種類に対応づけて、オブジェクトの画像の高周波成分を格納するオブジェクト画像情報格納部、
     前記入力画像に含まれる複数のオブジェクトのそれぞれの画像を、オブジェクトの種類に対応づけて前記オブジェクト画像情報格納部が格納している高周波成分を用いて、より高画質な高画質画像に変換する画像生成部
    として機能させる
    コンピュータ読取可能な媒体。
PCT/JP2009/001599 2008-04-07 2009-04-07 画像処理システム、画像処理方法、およびコンピュータ読取可能な媒体 WO2009125578A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/899,373 US8447128B2 (en) 2008-04-07 2010-10-06 Image processing system

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2008099322 2008-04-07
JP2008-099322 2008-04-07
JP2008-100747 2008-04-08
JP2008100747A JP5337970B2 (ja) 2008-04-08 2008-04-08 画像処理システム、画像処理方法、およびプログラム
JP2008100746A JP5337969B2 (ja) 2008-04-08 2008-04-08 画像処理システム、画像処理方法、およびプログラム
JP2008-100746 2008-04-08
JP2009-091518 2009-04-03
JP2009091518A JP2009273117A (ja) 2008-04-07 2009-04-03 画像処理システム、画像処理方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/899,373 Continuation US8447128B2 (en) 2008-04-07 2010-10-06 Image processing system

Publications (1)

Publication Number Publication Date
WO2009125578A1 true WO2009125578A1 (ja) 2009-10-15

Family

ID=41161715

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/001599 WO2009125578A1 (ja) 2008-04-07 2009-04-07 画像処理システム、画像処理方法、およびコンピュータ読取可能な媒体

Country Status (1)

Country Link
WO (1) WO2009125578A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8472745B2 (en) 2010-02-16 2013-06-25 Fujifilm Corporation Image processing method, apparatus, program, and recording medium for the same
CN112884646A (zh) * 2014-11-13 2021-06-01 瑞穗研究及技术株式会社 图像处理系统、图像处理方法以及介质
WO2022181024A1 (ja) * 2021-02-26 2022-09-01 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170112A (ja) * 2000-12-04 2002-06-14 Minolta Co Ltd 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法
JP2004102359A (ja) * 2002-09-04 2004-04-02 Advanced Telecommunication Research Institute International 画像処理装置、画像処理方法および画像処理プログラム
JP2006295303A (ja) * 2005-04-06 2006-10-26 Fuji Photo Film Co Ltd 画像処理方法および装置ならびにプログラム
JP2006350769A (ja) * 2005-06-17 2006-12-28 Fujifilm Holdings Corp 画像処理装置および方法並びにプログラム
JP2006350498A (ja) * 2005-06-14 2006-12-28 Fujifilm Holdings Corp 画像処理装置および方法並びにプログラム
JP2007066227A (ja) * 2005-09-02 2007-03-15 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2007226655A (ja) * 2006-02-24 2007-09-06 Fujifilm Corp 画像処理方法および装置ならびにプログラム
JP2007257585A (ja) * 2006-03-27 2007-10-04 Fujifilm Corp 画像処理方法および装置ならびにプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002170112A (ja) * 2000-12-04 2002-06-14 Minolta Co Ltd 解像度変換プログラムを記録したコンピュータ読取可能な記録媒体、解像度変換装置および解像度変換方法
JP2004102359A (ja) * 2002-09-04 2004-04-02 Advanced Telecommunication Research Institute International 画像処理装置、画像処理方法および画像処理プログラム
JP2006295303A (ja) * 2005-04-06 2006-10-26 Fuji Photo Film Co Ltd 画像処理方法および装置ならびにプログラム
JP2006350498A (ja) * 2005-06-14 2006-12-28 Fujifilm Holdings Corp 画像処理装置および方法並びにプログラム
JP2006350769A (ja) * 2005-06-17 2006-12-28 Fujifilm Holdings Corp 画像処理装置および方法並びにプログラム
JP2007066227A (ja) * 2005-09-02 2007-03-15 Fujifilm Corp 画像処理装置および方法並びにプログラム
JP2007226655A (ja) * 2006-02-24 2007-09-06 Fujifilm Corp 画像処理方法および装置ならびにプログラム
JP2007257585A (ja) * 2006-03-27 2007-10-04 Fujifilm Corp 画像処理方法および装置ならびにプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8472745B2 (en) 2010-02-16 2013-06-25 Fujifilm Corporation Image processing method, apparatus, program, and recording medium for the same
CN112884646A (zh) * 2014-11-13 2021-06-01 瑞穗研究及技术株式会社 图像处理系统、图像处理方法以及介质
WO2022181024A1 (ja) * 2021-02-26 2022-09-01 富士フイルム株式会社 情報処理装置、情報処理方法、及びプログラム

Similar Documents

Publication Publication Date Title
JP5429445B2 (ja) 画像処理システム、画像処理方法、およびプログラム
WO2009122760A1 (ja) 画像処理装置、画像処理方法、およびコンピュータ読取可能な媒体
US8599209B2 (en) Image processing apparatus, image processing method, and computer readable medium
US8421885B2 (en) Image processing system, image processing method, and computer readable medium
US8447128B2 (en) Image processing system
JP5193931B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5239095B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP5337970B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP2013051737A (ja) 画像処理装置、画像処理方法、およびプログラム
JP5156982B2 (ja) 画像処理システム、画像処理方法、およびプログラム
WO2009125578A1 (ja) 画像処理システム、画像処理方法、およびコンピュータ読取可能な媒体
JP2009273116A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2009268088A (ja) 画像処理システム、画像処理方法、およびプログラム
JP4961582B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP5105179B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP5136172B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP5142204B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP5337969B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP5352332B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5041316B2 (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP5082142B2 (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP2009273117A (ja) 画像処理システム、画像処理方法、およびプログラム
JP2009253696A (ja) 画像処理システム、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09729608

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09729608

Country of ref document: EP

Kind code of ref document: A1