JP2009071732A - 画像処理装置、画像処理方法、およびプログラム - Google Patents

画像処理装置、画像処理方法、およびプログラム Download PDF

Info

Publication number
JP2009071732A
JP2009071732A JP2007240186A JP2007240186A JP2009071732A JP 2009071732 A JP2009071732 A JP 2009071732A JP 2007240186 A JP2007240186 A JP 2007240186A JP 2007240186 A JP2007240186 A JP 2007240186A JP 2009071732 A JP2009071732 A JP 2009071732A
Authority
JP
Japan
Prior art keywords
image
unit
feature
feature region
detection method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007240186A
Other languages
English (en)
Other versions
JP4911468B2 (ja
Inventor
Takayuki Udagawa
隆之 宇田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007240186A priority Critical patent/JP4911468B2/ja
Publication of JP2009071732A publication Critical patent/JP2009071732A/ja
Application granted granted Critical
Publication of JP4911468B2 publication Critical patent/JP4911468B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】移動体の種類に応じた適切な移動体検出処理をすることができる画像処理装置を提供すること。
【解決手段】画像処理装置は、複数の撮像装置のうちの一の撮像装置により撮像された画像における特徴領域を検出する特徴領域検出部と、前記特徴領域検出部が検出した特徴領域に撮像された被写体を他の撮像装置が撮像して得られた画像から、前記特徴領域検出部が検出した特徴領域の特徴量に基づいて特徴領域を検出する対応特徴領域検出部と、を備える。
【選択図】図8

Description

本発明は、画像処理装置、画像処理方法、およびプログラムに関する。本発明は、特に、画像を符号化する画像処理装置および画像処理方法、並びに画像処理装置用のプログラムに関する。
複数の撮影装置が協調動作することにより、撮影対象となる移動体を広範囲において追跡して撮影する移動体追跡システムが知られている(例えば、特許文献1参照。)。また、センサカメラにより撮影した広角映像の中から撮影すべき被写体を自動認識すると共に、3次元空間内での被写体の位置を計測した後に、被写体の動きに応じて撮影用カメラを駆動制御することで、被写体を自動撮影する自動撮影カメラシステムが知られている(例えば、特許文献2参照。)。
特開2006−86591号公報 特開平9−322178号公報
しかしながら、上記特許文献1および2に記載の技術によると、移動体の種類を特定することができない。このため、移動体の種類に応じて適切に移動体を検出することができない。
上記課題を解決するために、本発明の第1の形態においては、画像処理装置であって、複数の撮像装置のうちの一の撮像装置により撮像された画像における特徴領域を検出する特徴領域検出部と、前記特徴領域検出部が検出した特徴領域に撮像された被写体を他の撮像装置が撮像して得られた画像から、前記特徴領域検出部が検出した特徴領域の特徴量に基づいて特徴領域を検出する対応特徴領域検出部と、を備える。
前記対応特徴領域検出部は、前記特徴領域検出部が検出した特徴領域の特徴量に応じた検出方法で、前記他の撮像装置により撮像された画像から特徴領域を検出してもよい。
特徴領域における複数の特徴量のそれぞれに対応づけて、画像から特徴領域を検出する検出方法を格納する検出方法格納部をさらに備え、前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域の特徴量に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された画像から特徴領域を検出してもよい。
前記検出方法格納部は、特徴領域における複数の特徴の種類のそれぞれに対応づけて検出方法を格納し、前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域における特徴の種類に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された画像から特徴領域を検出してもよい。
前記検出方法格納部は、特徴領域における複数の被写体の種類のそれぞれに対応づけて前記検出方法を格納し、前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域に含まれる被写体の種類に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された画像から特徴領域を検出してもよい。
前記特徴領域検出部が検出した特徴領域に含まれる人物の向き、ならびに前記一の撮像装置および前記他の撮像装置のそれぞれの位置および撮像方向に基づいて、前記他の撮像装置により撮像される画像における人物の向きを特定する向き特定部をさらに備え、前記検出方法格納部は、特徴領域に含まれる複数の人物の向きのそれぞれに対応づけて検出方法を格納し、前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記向き特定部が特定した人物の向きに対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された画像から特徴領域を検出してもよい。
前記特徴領域検出部が検出した特徴領域に含まれる人物の大きさ、ならびに前記一の撮像装置および前記他の撮像装置のそれぞれの撮像条件に基づいて、前記他の撮像装置により撮像される画像における人物の大きさを特定する大きさ特定部をさらに備え、前記検出方法格納部は、特徴領域に含まれる複数の人物の大きさのそれぞれに対応づけて検出方法を格納し、前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記大きさ特定部が特定した人物の大きさに対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された画像から特徴領域を検出してもよい。
前記複数の撮像装置は、前記画像である動画における複数の動画構成画像を含む動画を撮像し、前記特徴領域検出部は、前記一の撮像装置により撮像された動画に含まれる複数の動画構成画像における特徴領域を検出し、前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域の特徴量に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された動画に含まれる複数の動画構成画像から特徴領域を検出してもよい。
前記特徴領域検出部は、前記複数の撮像装置のうちの前記一の撮像装置により撮像された動画に含まれる複数の動画構成画像に基づいて、当該複数の動画構成画像における動く被写体を含む領域を特徴領域として検出し、前記検出方法格納部は、特徴領域に含まれる被写体の動き量に対応づけて、特徴領域を検出する検出方法を格納し、前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域に含まれる動く被写体の動き量に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された動画に含まれる複数の動画構成画像から特徴領域を検出してもよい。
前記特徴領域検出部は、前記複数の撮像装置のうちの前記一の撮像装置により撮像された動画に含まれる複数の動画構成画像に基づいて、当該複数の動画構成画像における動く被写体を含む領域を特徴領域として検出し、前記画像処理装置は、前記特徴領域検出部が検出した特徴領域における動き量に基づいて、当該特徴領域に撮像された被写体を前記他の撮像装置が撮像するタイミングを特定するタイミング特定部をさらに備え、前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域の特徴量に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置が前記タイミング特定部が特定したタイミングで撮像した動画構成画像から特徴領域を検出してもよい。
本発明の第2の形態によると、画像処理方法であって、複数の撮像装置のうちの一の撮像装置により撮像された画像における特徴領域を検出する特徴領域検出段階と、前記特徴領域検出段階が検出した特徴領域に撮像された被写体を他の撮像装置が撮像して得られた画像から、前記特徴領域検出段階が検出した特徴領域の特徴量に基づいて特徴領域を検出する対応特徴領域検出段階と、を備える。
本発明の第3の形態によると、画像を処理する画像処理装置用のプログラムであって、前記画像処理装置を、複数の撮像装置のうちの一の撮像装置により撮像された画像における特徴領域を検出する特徴領域検出部、前記特徴領域検出部が検出した特徴領域に撮像された被写体を他の撮像装置が撮像して得られた画像から、前記特徴領域検出部が検出した特徴領域の特徴量に基づいて特徴領域を検出する対応特徴領域検出部、として機能させる。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、一実施形態に係る画像処理システム10の一例を示す。画像処理システム10は、特徴的な被写体の画質を高画質に保ちつつ画像のデータ量を低減することを目的とする。
画像処理システム10は、監視対象空間150を撮像する複数の撮像装置100a−c(以下、撮像装置100と総称する。)、画像を処理する画像処理装置120、画像処理装置170、通信ネットワーク110、および複数の表示装置180a−c(以下、表示装置180と総称する。)を備える。
画像処理装置120は、撮像装置100aに接続されている。また、画像処理装置120は、撮像装置100bに接続されている。また、画像処理装置120は、撮像装置100cに接続されている。なお、画像処理装置170および表示装置180は、監視対象空間150と異なる空間160に設けられている。
以下に、撮像装置100a、画像処理装置120、画像処理装置170、および表示装置180aの動作を説明する。撮像装置100aは、画像である動画における複数の動画構成画像を含む動画を撮像する。具体的には、撮像装置100aは、監視対象空間150を撮像して得られた撮像動画をMPEG符号化して撮像動画データを生成して、撮像装置100aが接続されている画像処理装置120に出力する。
画像処理装置120は、撮像装置100aが生成した撮像動画データを取得する。画像処理装置120は、撮像装置100から取得した撮像動画データを復号して撮像動画を生成して、生成した撮像動画から人物130、車輌等の移動物体140等、特徴の種類が異なる複数の特徴領域を検出する。そして、画像処理装置120は、撮像動画から、特徴の種類のそれぞれについて特徴領域が他の領域より高画質な動画を生成することによって、複数の特徴領域動画を生成する。また、画像処理装置120は、特徴領域以外の背景領域の動画であって、特徴領域動画より低画質な背景領域動画を生成する。
そして、画像処理装置120は、生成した複数の特徴領域動画および背景領域動画をそれぞれ符号化することによって複数の特徴領域動画データおよび背景領域動画データを生成する。同時に、画像処理装置120は、符号化して得られた複数の特徴領域動画データおよび背景領域動画データを互いに関連づけて、通信ネットワーク110を通じて画像処理装置170に送信する。なお、画像処理装置120は、撮像装置100ごとに設けられてもよい。この場合、画像処理装置120のそれぞれが、本実施形態の画像処理装置120と同様の機能および動作であってもよい。また、撮像装置100のそれぞれが、画像処理装置120の機能を有してもよい。
画像処理装置170は、画像処理装置120から受信した関連付けされた複数の特徴領域動画データおよび背景領域動画データをそれぞれ復号することによって、複数の特徴領域動画および背景領域動画を取得する。そして、画像処理装置170は、複数の特徴領域動画および背景領域動画を合成することによって一の合成動画を生成して、生成した合成動画を表示装置180aに供給する。表示装置180aは、画像処理装置170から供給された動画を表示する。
なお、撮像装置100bおよび撮像装置100cの機能および動作は、撮像装置100aの機能および動作と同様であるので、その説明を省略する。また、画像処理装置170は、撮像装置100bおよび撮像装置100cのそれぞれから受信した関連付けされた複数の特徴領域動画データおよび背景領域動画データから、一の動画をそれぞれ生成して、それぞれ表示装置180bおよび表示装置180cに供給する。また、表示装置180bおよび表示装置180cは、画像処理装置170から供給されたそれぞれの動画を表示する。
本実施形態の画像処理システム10を、例えば監視システムとして実際に適用した場合には、人物、移動物体等、監視対象として特徴的な被写体を高画質で残すことができる場合がある。そのうえ、動画のデータ量を低下することができる場合がある。
図2は、画像処理装置120のブロック構成の一例を示す。画像処理装置120は、圧縮動画取得部201、圧縮動画伸張部202、特徴領域検出ユニット250、画像分割部204、画像生成部205、固定値化ユニット210、低減化ユニット220、符号化ユニット230、対応付け処理部206、および出力部207を有する。
固定値化ユニット210は、複数の固定値化部211a−211c(以下、固定値化部211と総称する。)を含む。低減化ユニット220は、複数の画質低減部221a−d(以下、画質低減部221と総称する。)を含む。
符号化ユニット230は、背景領域動画符号化部231aおよび複数の特徴領域動画符号化部231b−d(以下、特徴領域動画符号化部231と総称する。)を含む。なお、背景領域動画符号化部231aおよび特徴領域動画符号化部231b−dを総称して、符号化部231と呼ぶ場合がある。
なお、画質低減部221aおよび背景領域動画符号化部231aは、圧縮部240aとして機能する。また、画質低減部221bおよび特徴領域動画符号化部231bは、圧縮部240bとして機能する。同様に、画質低減部221cおよび特徴領域動画符号化部231cは圧縮部240cとして機能する。画質低減部221dおよび特徴領域動画符号化部231dは圧縮部240dとして機能する。なお、複数の圧縮部240a−dを、圧縮部240と総称する。
圧縮動画取得部201は、圧縮された動画を取得する。具体的には、圧縮動画取得部201は、撮像装置100が生成した、符号化された撮像動画データを取得する。圧縮動画伸張部202は、圧縮動画取得部201が取得した動画を復元して、動画に含まれる複数の動画構成画像を生成する。具体的には、圧縮動画伸張部202は、圧縮動画取得部201が取得した撮像動画データを復号して、動画に含まれる複数の動画構成画像を生成する。なお、動画構成画像はフレーム画像およびフィールド画像を含む。
特徴領域検出ユニット250は、動画に含まれる複数の動画構成画像から、特徴領域を検出する。そして、画像分割部204は、複数の動画構成画像のそれぞれを、特徴領域と背景領域とに分割する。
画像生成部205は、複数の動画構成画像から特徴領域画像を抽出することにより、複数の特徴領域画像をそれぞれ含む複数の特徴領域圧縮用動画を生成する。具体的には、画像生成部205は、動画を複製することにより、複数の特徴領域動画のそれぞれを圧縮するための複数の特徴領域圧縮用動画および背景領域動画を圧縮するための背景領域圧縮用動画を生成する。
そして、固定値化部211は、特徴領域圧縮用動画に含まれる複数の動画構成画像における特徴領域画像以外の領域の画素値を固定値化する。例えば、固定値化部211は、特徴領域画像以外の領域の画素値を所定の値(例えば、輝度値0)に設定する。そして、圧縮部240は、特徴領域画像以外の領域の画素値が固定値化された複数の動画構成画像をそれぞれ含む複数の特徴領域圧縮用画像を、それぞれの特徴量に応じた強度で圧縮する。このように、圧縮部240は、複数の特徴領域圧縮用動画のそれぞれと、背景領域圧縮用動画とを、それぞれの特徴量に応じた強度で圧縮する。
以上説明したように、特徴領域検出ユニット250は、画像から特徴領域を検出する。そして、画像分割部204は、画像を、特徴領域と、特徴領域以外の背景領域とに分割する。そして、圧縮部240は、特徴領域の画像である特徴領域画像と背景領域の画像である背景領域画像とを、それぞれ異なる強度で圧縮する。そして、圧縮部240は、特徴領域画像を複数含む特徴領域動画と背景領域画像を複数含む背景領域動画とを、それぞれ異なる強度で圧縮する。
なお、圧縮部240b、圧縮部240c、および圧縮部240dには、いずれの種類の特徴領域動画を圧縮すべきかが予め定められており、圧縮部240b、圧縮部240c、および圧縮部240dは予め定められた特徴の種類の特徴領域動画を圧縮する。なお、特徴領域動画を圧縮する場合の圧縮強度は、複数の特徴の種類ごとに予め定められており、圧縮部240b、圧縮部240c、および圧縮部240dは、予め定められた特徴の種類の特徴領域動画を、当該特徴の種類に予め定められた圧縮強度で圧縮する。このように、圧縮部240は、画像分割部204によって分割された画像領域ごとに設けられた圧縮器を用いて、複数の領域を並行して圧縮する。
なお、圧縮部240は、一つの圧縮器によって実装されてよく、複数の特徴領域動画および背景領域動画を時間的に順次圧縮してもよい。他にも、圧縮部240は、圧縮動画伸張部202によって復号された撮像動画を、画像分割部204が分割した領域ごとに、各領域の特徴の種類および背景のそれぞれに対して予め定められた圧縮率で圧縮することによって、一の動画データを生成してよい。
なお、特徴領域検出ユニット250は、画像である動画に含まれる複数の動画構成画像から、特徴の種類が異なる複数の特徴領域を検出する。そして、画像分割部204は、複数の動画構成画像を、複数の特徴領域のそれぞれと、複数の特徴領域以外の背景領域とに分割する。そして、圧縮部240は、複数の特徴領域動画と背景領域動画とを、それぞれの特徴量に応じた強度で圧縮する。なお、特徴量とは、被写体の種類、被写体の大きさ、移動物体が移動する移動速さ、および特徴領域の大きさを含む。
具体的には、画質低減部221は、複数の特徴領域動画と背景領域動画とを、それぞれの特徴量に応じて画質を低減することにより圧縮する。より具体的には、画質低減部221は、複数の特徴領域動画と背景領域動画とを、それぞれの特徴量に応じて解像度またはフレームレートを低減することにより圧縮する。そして、符号化部231は、複数の特徴領域動画と背景領域動画とを、それぞれの特徴量に応じた設定値を用いて符号化することにより圧縮する。例えば、符号化部231は、複数の特徴領域動画と背景領域動画とを、それぞれの特徴量に応じた割り当て符号量を用いて符号化することにより圧縮する。
対応付け処理部206は、複数の圧縮部240が複数の特徴領域動画および背景領域動画を圧縮することによって生成した複数の特徴領域動画データおよび背景領域動画データを、例えばタグ情報等を付帯する等して互いに対応づける。出力部207は、対応付け処理部206が対応づけた複数の特徴領域動画データおよび背景領域動画データを通信ネットワーク110に送出する。
なお、特徴領域検出ユニット250は、複数の特徴領域のそれぞれの特徴量を特定したときの信頼性の度合いを示す確信度を、複数の特徴領域毎に算出する。そして、圧縮部240は、複数の特徴領域動画を、それぞれの特徴量および確信度に応じた強度で圧縮する。例えば、画質低減部221は、複数の特徴領域動画を、それぞれの特徴量および確信度に応じて解像度またはフレームレートを低減することにより圧縮する。そして、符号化部231は、複数の特徴領域動画を、それぞれの特徴量および確信度に応じた設定値を用いて符号化することにより圧縮する。例えば、圧縮部240は、複数の特徴領域動画を、それぞれの確信度が低いほど、それぞれの特徴量に応じた強度より低い強度で圧縮してよい。
図3は、画像処理装置170のブロック構成の一例を示す。画像処理装置170は、圧縮動画取得部301、対応付け解析部302、圧縮動画伸張ユニット310、動画生成部303、および出力部304を有する。圧縮動画伸張ユニット310は、複数の圧縮動画伸張部311a−d(以下、圧縮動画伸張部311と総称する。)を含む。
圧縮動画取得部301は、出力部207が出力した、対応づけられた複数の特徴領域動画データおよび背景領域動画データを取得する。対応付け解析部302は、例えば付帯されたタグ情報を解析して、圧縮動画取得部301が取得した対応づけられた複数の特徴領域動画データおよび背景領域動画データを取り出す。
圧縮動画伸張部311は、複数の特徴領域動画データおよび背景領域動画データを復号する。具体的には、圧縮動画伸張部311aは背景領域動画データを復号する。また、圧縮動画伸張部311b−dは、複数の特徴領域動画データのうち、一の特徴領域動画を復号して、複数の特徴領域動画および背景領域動画を取得する。なお、圧縮動画伸張部311b−dは、特徴の種類ごとに設けられ、それぞれ、いずれかの種類の特徴領域動画データを復号する。
動画生成部303は、圧縮動画伸張部311が復号することによって得られた動画構成画像を合成する。具体的には、動画生成部303は、圧縮動画伸張部311b−dにより復号された複数の特徴領域動画のそれぞれが含む動画構成画像の特徴領域の画像を、背景領域動画が含む動画構成画像に重ね合わせた動画構成画像を生成する。出力部304は、動画生成部303が生成した複数の動画構成画像を含む動画を、表示装置180に供給する。
なお、本実施形態の圧縮動画伸張ユニット310は、特徴の種類の数に応じた複数の圧縮動画伸張部311を含むが、他の形態では、圧縮動画伸張ユニット310が含む一の圧縮動画伸張部311が、背景領域動画データおよび複数の特徴領域動画データを順次復号してもよい。また、画像処理装置120から一の動画データとして提供される場合には、一の圧縮動画伸張部311が当該一の動画データを復号して、復号した得られた動画を出力部304が出力してもよい。
図4は、画像処理装置120のブロック構成の別の一例を示す。画像処理装置120は、圧縮動画取得部201、圧縮動画伸張部202、特徴領域検出ユニット250、入力動画画質制御部280、画質低減部281、階層間差分圧縮部282a−d(以下、階層間差分圧縮部282と総称する。)、および出力部207を備える。
圧縮動画取得部201は、圧縮された動画を取得する。具体的には、圧縮動画取得部201は、撮像装置100が生成した、符号化された撮像動画データを取得する。圧縮動画伸張部202は、圧縮動画取得部201が取得した動画を復元して、動画に含まれる複数の動画構成画像を生成する。
具体的には、圧縮動画伸張部202は、圧縮動画取得部201が取得した撮像動画データを復号して、動画に含まれる複数の動画構成画像を生成する。なお、動画構成画像はフレーム画像およびフィールド画像を含む。また、動画構成画像は、この発明における入力画像の一例である。
特徴領域検出ユニット250は、動画に含まれる複数の動画構成画像から、特徴領域を検出する。入力動画画質制御部280は、圧縮動画伸張部202が生成した複数の動画構成画像のそれぞれにおける特徴領域の特徴量に応じて、特徴領域の画質および特徴領域以外の領域の画質を制御する。
画質低減部281は、動画の画質を低減することによって、予め定められた異なる画質を持つ複数の動画を生成する。そして、画質低減部281は、生成した画質が異なる動画を階層間差分圧縮部282に提供する。具体的には、画質低減部281は、動画のフレームレートを低減することにより、あるいは動画に含まれる動画構成画像の解像度を低減することにより、異なる画質を持つ動画を生成する。そして、階層間差分圧縮部282は、予め定められた画質の動画を画質低減部281から取得して、取得した動画を圧縮する。なお、階層間差分圧縮部282は、互いに異なる画質の動画を圧縮する。
なお、画質低減部281が階層間差分圧縮部282aに供給する動画に含まれる動画構成画像は、この発明における低画質画像の一例であってよい。また、画質低減部281が階層間差分圧縮部282b−dに供給する動画に含まれる動画構成画像は、この発明における特徴領域画像の一例であってよい。この場合、画質低減部281および入力動画画質制御部280は、この発明における画像生成部として機能する。
なお、階層間差分圧縮部282aは、階層間差分圧縮部282b−dのいずれが受け取る動画構成画像より解像度が低い動画構成画像を画質低減部281から取得して圧縮する。なお、階層間差分圧縮部282は、階層間差分圧縮部282b、階層間差分圧縮部282c、および階層間差分圧縮部282dの順で解像度が低い動画構成画像を画質低減部281から取得して圧縮する。
階層間差分圧縮部282bは、階層間差分圧縮部282aが圧縮した動画構成画像を伸張して、伸張して得られた動画構成画像を、画質低減部281から取得した動画構成画像の解像度と同じ解像度にまで拡大する。そして、階層間差分圧縮部282bは、拡大して得られた動画構成画像と画質低減部281から取得した動画構成画像との間の差分画像を圧縮する。なお、階層間差分圧縮部282bは、特徴領域において差分値を持つが、特徴領域以外の領域において差分値を持たない差分画像を生成して圧縮する。
また、階層間差分圧縮部282cは、階層間差分圧縮部282bが圧縮した動画構成画像を伸張して、伸張して得られた動画構成画像を、画質低減部281から取得した動画構成画像の解像度と同じ解像度にまで拡大する。そして、階層間差分圧縮部282cは、拡大して得られた動画構成画像と画質低減部281から取得した動画構成画像との間の差分画像を圧縮する。なお、階層間差分圧縮部282cは、特徴領域の特徴量に応じて、複数の特徴領域のうちの少なくとも一部の特徴領域において差分値を持つが、当該少なくとも一部の特徴領域以外の領域において差分値を持たない差分画像を生成して圧縮する。
また、階層間差分圧縮部282dは、階層間差分圧縮部282cが圧縮した動画構成画像を伸張する。そして、階層間差分圧縮部282dは、伸張して得られた動画構成画像を、入力動画画質制御部280から取得した動画構成画像の解像度と同じ解像度にまで拡大する。そして、階層間差分圧縮部282dは、拡大して得られた動画構成画像と入力動画画質制御部280から取得した動画構成画像との間の差分画像を圧縮する。なお、階層間差分圧縮部282dは、特徴領域の特徴量に応じて、複数の特徴領域のうちの少なくとも一部の特徴領域において差分値を持つが、当該少なくとも一部の特徴領域以外の領域において差分値を持たない差分画像を生成して圧縮する。
このように、階層間差分圧縮部282b−dは、入力動画画質制御部280または画質低減部281から受け取った動画構成画像と、より低い解像度の動画構成画像を拡大した動画構成画像との間の差分をとることによって得られた差分画像を圧縮する。そして、出力部207は、階層間差分圧縮部282のそれぞれが圧縮して得られた動画を多重化して出力する。具体的には、出力部207は、階層間差分圧縮部282が圧縮した動画を画像処理装置170に送信する。このように、画像処理装置120は、特徴領域の特徴量に応じてスケーラブルに圧縮符号化された動画を提供することができる。
図5は、階層間差分圧縮部282aおよびbのブロック構成の一例を示す。階層間差分圧縮部282aは、動き解析部285a、動き符号化部286a、差分処理部287a、および符号化部288aを有する。動き解析部285aは、差分対象領域決定部294aおよび位置差情報生成部295aを含む。差分処理部287aは、差分画素画像生成部296a、空間周波数領域変換部297a、および量子化部298aを含む。
階層間差分圧縮部282bは、動き解析部285b、動き符号化部286b、差分処理部287b、画像拡大部293b、画像復号部292b、画素値変更部291b、および符号化部288bを有する。動き解析部285bは、差分対象領域決定部294bおよび位置差情報生成部295bを含む。差分処理部287bは、差分画素画像生成部296b、空間周波数領域変換部297b、量子化部298b、および周波数領域画質変換部299bを含む。なお、階層間差分圧縮部282cおよび階層間差分圧縮部282dは、階層間差分圧縮部282bが有する構成要素と略同一の構成要素を有するので、説明を省略する。
以下に、階層間差分圧縮部282aの各構成要素の機能および動作について説明する。動き解析部285aは、画質低減部281から受け取った複数の動画構成画像の画像内容に基づいて、複数の動画構成画像にわたる動きを解析することによって、動きに基づいて動画構成画像を圧縮する部分領域を決定する。
具体的には、差分対象領域決定部294aは、複数の動画構成画像にわたる部分領域の画素値に基づいて、動画構成画像を他の動画構成画像との差分により圧縮する場合における、差分対象となる他の動画構成画像における部分領域を決定する。差分対象領域決定部294aは、圧縮対象の部分領域の画素情報および差分対象の部分領域の画素情報を差分処理部287aに供給する。
また、位置差情報生成部295aは、差分により圧縮する部分領域と差分対象となる部分領域との間の位置差を示す位置差情報を生成する。具体的には、位置差情報生成部295aは、動き補償に用いる動きベクトルを生成する。そして、位置差情報生成部295aは、生成した位置差情報を動き符号化部286aに供給する。
動き符号化部286aは、位置差情報生成部295aから供給された位置差情報を符号化して、出力部207に供給する。例えば、動き符号化部286は、隣接する部分領域における位置差情報との間の差を符号化して、出力部207に供給する。
差分処理部287aは、動き解析部285aから受け取った圧縮対象の部分領域の画素情報と差分対象の部分領域の画素情報との間の差分により、圧縮対象の部分領域の画像を圧縮する。具体的には、差分画素画像生成部296aは、圧縮対象の部分領域の画素情報と差分対象の部分領域の画素情報との間の差分により差分画素画像を生成する。
そして、空間周波数領域変換部297aは、差分画素画像を部分領域ごとに空間周波数領域に変換する。具体的には、空間周波数領域変換部297aは、離散コサイン変換(DCT)により、差分画素画像における部分領域ごとに空間周波数領域に変換する。なお、空間周波数領域変換部297aは、アダマール変換あるはウェーブレット変換等のような種々の周波数変換により、差分画素画像を部分領域ごとに空間周波数領域に変換してよい。
なお、動き解析部285aが他の動画構成画像の部分領域との間の差分により圧縮しない旨を判断した場合には、差分処理部287aは圧縮対象の部分領域の画素情報を空間周波数領域変換部297aに供給する。空間周波数領域変換部297aは画素情報を、上記のように部分領域ごとに空間周波数領域に変換する。
量子化部298aは、空間周波数領域変換部297aが空間周波数領域に変換することによって得られた変換係数を量子化する。そして、符号化部288aは、量子化部298aによって量子化された変換係数を符号化することによって圧縮する。例えば、符号化部288は、量子化部298aによって量子化された変換係数を、ハフマン符号化、算術符号化等のエントロピー符号化により符号化する。そして、符号化部288aは、符号化することによって得られた動画を出力部207に供給する。
以下に、階層間差分圧縮部282bが含む各構成要素の機能および動作について説明する。階層間差分圧縮部282bが含む構成要素のうち、階層間差分圧縮部282aが含む構成要素と同一の符号が付された構成要素は、階層間差分圧縮部282aが含む構成要素と類似する機能および動作をするので、その相違点を除いて説明を省略する。
差分対象領域決定部294bは、差分対象領域決定部294aと同様に、画質低減部281から受け取った複数の動画構成画像のそれぞれについて、動画構成画像に含まれる圧縮対象の部分領域と差分をとるべき、他の動画構成画像における部分領域を特定する。このように、差分対象領域決定部294bは、特徴領域画像との間で差分をとるべき、他の動画構成画像から生成された特徴領域画像における部分領域である特徴領域部分領域を決定する。そして、差分対象領域決定部294bは、圧縮対象の部分領域の画素情報および差分対象の部分領域の画素情報を画素値変更部291bに供給する。
また、画像復号部292bは、符号化部288aから動画構成画像を取得するとともに、動き符号化部286aから位置差情報を取得する。そして、画像復号部292bは、符号化部288aから取得した動画構成画像を、動き符号化部286aから取得した位置差情報を用いて復号する。なお、画像復号部292bは、量子化部298aにより量子化された動画構成画像を取得して復号してよく、符号化部288aが符号化した動画構成画像を取得して復号してもよい。なお、画像復号部292bによって復号されて得られた動画構成画像は、この発明における低画質画像の一例であってよい。この場合、階層間差分圧縮部282aは、この発明における低画質画像を生成する画像生成部として機能する。
画像拡大部293bは、画像復号部292bにより復号された動画構成画像を拡大することによって拡大画像を生成する。そして、画素値変更部291bは、差分対象領域決定部294bが決定した部分領域のうち、特徴領域を含む部分領域の画素値を変更せずに、特徴領域に含まれない部分領域の画素値を、拡大画像における部分領域の画素値で置き換える。
このように、画素値変更部291bは、入力された動画構成画像から、特徴領域以外の領域の画素値を拡大した画像の画素値で置き換えた特徴領域画像を生成する。なお、画素値変更部291bは、この発明において、特徴領域以外の領域の画素値を拡大した画像の画素値で置き換えた特徴領域画像を生成する画像生成部として機能することができる。
差分処理部287bは、圧縮対象の特徴領域画像、特徴領域画像に含まれる部分領域の差分対象となる部分領域の画像情報、および拡大画像を、画素値変更部291bから受け取る。そして、差分処理部287bは、圧縮対象の特徴領域画像に含まれる複数の部分領域のそれぞれについて、同じ特徴領域画像の画素情報を用いて符号化するか(以下、イントラ符号化と呼ぶ。)、他の動画構成画像に含まれる差分対象の部分領域との間の差分により符号化するか(以下、インター符号化と呼ぶ。)、拡大画像との間の差分により符号化するか(以下、階層間圧縮と呼ぶ。)を決定する。このとき、差分処理部287bは符号化後の符号量がより小さい符号化方法をより優先して選択する。特徴領域以外の領域において差分を持たないように画素値が置き換えられているので階層間符号化が選択されるので階層間符号化が選択された場合についてまず説明するが、加えて、インター符号化、イントラ符号化が選択された場合についても説明する。
階層間符号化が選択された場合には、差分画素画像生成部296bは、特徴領域画像と拡大画像との間の画素値の差分を示す差分画素画像を生成する。具体的には、差分画素画像生成部296bは、特徴領域以外の領域の画素値が置き換えられた特徴領域画像と拡大画像との間の差分により差分画素画像を生成する。なお、特徴領域画像においては特徴領域以外の領域の画素値は拡大画像の画素値で置き換えられているので、差分画素画像生成部296bは、特徴領域において特徴領域画像と拡大した画像との間の画素値の差分値を持ち、特徴領域以外の領域において画素値の差分値を持たない差分画素画像を生成することができる。
インター符号化が選択された場合には、差分画素画像生成部296bは、画素値変更部291bにより生成された特徴領域画像と、他の動画構成画像から画素値変更部291bが生成した特徴領域画像との間の差分をとる。具体的には、差分画素画像生成部296bは、特徴領域に含まれる部分領域の画像と、当該部分領域について差分対象領域決定部294bが決定した差分対象部分領域の画像との間の差分をとる。特徴領域画像においては特徴領域以外の領域の画素値は拡大画像の画素値で置き換えられているので、差分画素画像生成部296bは、特徴領域に含まれる部分領域において差分対象領域決定部294bが決定した部分領域との間の画素値の差分値を持ち、特徴領域以外の領域において差分対象領域決定部294bが決定した部分領域との間で画素値の差分値を持つ差分画素画像が生成される。
なお、イントラ符号化が選択された場合には、差分画素画像生成部296bは、特徴領域画像のそれぞれが含む部分領域の画像を、特徴領域画像の他の領域の画素値または同じ部分領域の画素値との間で差分をとることにより、差分画素画像を生成する。
空間周波数領域変換部297bは、差分画素画像を、部分領域ごとに空間周波数領域に変換する。具体的には、空間周波数領域変換部297bは、差分画素画像が示す差分値を、空間周波数領域変換部297aと同様に、離散コサイン変換(DCT)、アダマール変換、またはウェーブレット変換等により、部分領域ごとに空間周波数領域に変換する。量子化部298bは、量子化部298aと同様に、空間周波数領域変換部297bが空間周波数領域に変換することによって得られた変換係数を量子化する。
そして、周波数領域画質変換部299bは、空間周波数領域変換部297bにより空間周波数領域に変換されて得られる部分領域ごとの空間周波数成分のうち、特徴領域以外の領域を含む少なくとも一部の部分領域の空間周波数成分のデータ量を低減することによって、特徴領域差分画像または特徴領域間差分画像を生成する。具体的には、周波数領域画質変換部299bは、予め定められた周波数より高い周波数成分を示す変換係数の大きさを低減する。周波数領域画質変換部299bは、予め定められた周波数より高い周波数成分を示す変換係数を0にしてもよい。
このように、差分処理部287bは、特徴領域において特徴領域画像と拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域差分画像を生成する。そして、符号化部288bは、差分処理部287bが生成した特徴領域差分画像を符号化する。
また、上記したように、差分処理部287bは、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像との間の差分画像を示す特徴領域差分画像を生成する。より具体的には、差分処理部287は、特徴領域画像における特徴領域の画像と、低画質画像における特徴領域の画像を拡大した画像との間の特徴領域差分画像を生成する。
なお、以上の説明においては、画素値変更部291bは、差分画素画像における少なくとも特徴領域以外の領域(予め定められた特徴の種類を持つ特徴領域以外の領域であって、当該特徴領域より高解像度を持つべき特徴の種類を持つ特徴領域以外の領域)において差分値を0とすべく、特徴領域以外の画素値を拡大画像の画素値で置き換えた。しかしながら、他の方法により、差分画素画像における差分値を0とすることもできる。
例えば、画素値変更部291bは、画質低減部281から取得した動画構成画像の特徴領域以外の領域の画素値を所定の画素値に変換するとともに、拡大画像における特徴領域以外の領域と同じ画像領域の画素値を当該所定の画素値に変換してよい。このようにしても、差分画素画像における特徴領域以外の領域の差分値を0とすることができ、特徴領域以外の領域の情報量を実質的に低減することができる。
このように、画素値変更部291bは、動画構成画像から、特徴領域以外の領域の画素値および拡大した画像における特徴領域以外の領域の画素値を、所定値で置き換えた特徴領域画像を生成する。そして、差分画素画像生成部296は、特徴領域以外の領域の画素値が置き換えられた、特徴領域画像と拡大した画像との間の差分により差分画素画像を生成する。
なお、画素値変更部291bは、画質低減部281から取得した動画構成画像の特徴領域以外の領域の画素値を、下位階層の階層間差分圧縮部282(例えば、階層間差分圧縮部282a)に提供される動画構成画像を拡大した画像における同一領域の画素値で置き換えてもよい。このようにしても、差分画素画像における差分値を略0にすることができ、特徴領域以外の領域の情報量を実質的に低減することができる。
なお、位置差情報生成部295bは、特徴領域以外の領域に含まれる、差分対象となる部分領域の位置差を示す位置差情報を生成する。具体的には、位置差情報生成部295bは、位置差情報生成部295aと同様に、差分により圧縮する部分領域と差分対象となる部分領域である差分対象部分領域との間の位置差を示す位置差情報を生成する。なお、位置差情報は、動き補償における動きベクトルを含む。
位置差情報変更部290bは、特徴領域以外の領域に含まれる部分領域が同じ位置の部分領域との間で差分がとられることを位置差情報が示すべく、位置差情報を変更する。具体的には、位置差情報変更部290bは、特徴領域以外の領域に含まれる部分領域における位置差情報を、位置差がないことを示す情報に変換する。また、位置差情報変更部290bは、動き符号化部286aから位置差情報を取得して、特徴領域以外の領域に含まれる部分領域における位置差情報を、位置差ないことを示す情報に変換する。具体的には、位置差情報変更部290bは、特徴領域以外の領域における動きベクトルの大きさを0にする。具体的には、位置差情報変更部290bは、特徴領域以外の領域について、位置差情報生成部295bから受け取った動きベクトルの大きさを0にするとともに、動き符号化部286aから受け取った動きベクトルの大きさを0にする。
そして、動き符号化部286bは、位置差情報を符号化する。具体的には、動き符号化部286bは、動き符号化部286aと同様に、隣接する部分領域における位置差情報との間の差を符号化する。動き符号化部286bにより符号化された位置差情報は、出力部207に供給される。
なお、本実施形態では、位置差情報変更部290は、特徴領域以外の領域の位置差情報を変換したが、位置差情報変更部290bは、動き符号化部286bにより符号化された符号化形式上で、特徴領域以外の領域の位置差情報を変換してもよい。すなわち、位置差情報変更部290bは、特徴領域以外の部分領域が同じ位置の部分領域との間で差分がとられることを示すべく、動き符号化部286により符号化された位置差情報を変更してもよい。
なお、符号化部288bは、特徴領域以外の領域における差分情報を持たない符号化データを生成してよい。具体的には、特徴領域以外の領域に含まれる部分領域の差分情報を持たない符号化データを生成してよい。また、動き符号化部286bは、特徴領域以外の領域に含まれる部分領域における位置差情報を持たない符号化データを生成してよい。このように、符号化部288bおよび動き符号化部286bは、特徴領域以外の領域の画像内容が他の動画構成画像における同じ領域の画像内容と同じであることを、差分情報および位置差情報を持たないことによって示す符号化データを生成する。例えば、符号化部288bおよび動き符号化部286bは、特徴領域以外の領域に含まれる部分領域の画像内容が他の動画構成画像における同じ領域の画像内容と同じであることを示す部分領域の種別を含む符号化データを生成してよい。
例えば、符号化部288bおよび動き符号化部286bは、特徴領域以外の領域に含まれる部分領域が、単純フレーム間予測であり、かつ変換係数を持たないことを示す符号化モードで符号化された部分領域であることを示す部分領域の種別を含む符号化データを生成してよい。例えば、当該部分領域の種別は、MPEG符号化におけるNonMC NotCodedに相当する種別であってよい。このように、符号化部288bおよび動き符号化部286bが動きベクトルの大きさおよび差分情報が0であることを示す情報を持たない符号化データを生成することにより、符号化後の動画構成画像の符号量をより低減することができる。なお、階層間差分圧縮部282bは、上記符号化モードを含む予測モードを決定する場合に、ラグランジェの未定乗数法に基づいて、レート・歪コストを最小化することができる予測モードを選択してよい。
なお、階層間差分圧縮部282cおよび階層間差分圧縮部282dは、階層間差分圧縮部282bと同様の機能を有する構成要素を有する。なお、以後の説明において、階層間差分圧縮部282cおよび階層間差分圧縮部282dが有する、階層間差分圧縮部282と同名の構成要素には同じ符号を付す。そして、符号の末尾(b、c、d)により、階層間差分圧縮部282b−dのいずれに含まれる構成要素であるかを区別する。
例えば、動き解析部285cは階層間差分圧縮部282cが有する構成要素の一つであって、動き解析部285dは階層間差分圧縮部282dが有する構成要素の一つとなる。なお、以下の説明において、符号の末尾に英文字が付されていない構成要素は、階層間差分圧縮部282b−dが有する当該符号が付された構成要素の全体を示す。例えば、画素値変更部291は、画素値変更部291b−dを示す。
なお、階層間差分圧縮部282cおよび階層間差分圧縮部282dの機能および動作と、階層間差分圧縮部282bの機能および動作は、画質低減部281から異なる画質の動画を取得して処理すること、および位置差情報変更部290cおよびd、ならびに画像復号部292cおよびdが、より画質が低い動画を処理する他の階層間差分圧縮部282から、差分のための位置差情報および動画構成画像を取得するところが異なる。
より具体的には、位置差情報変更部290cは、動き符号化部286bから位置差情報を取得して、取得した位置差情報を変換する。また、画像復号部292cは、動き符号化部286bから位置差情報を取得するとともに、符号化部288bから動画構成画像を取得して、取得した動画構成画像を当該位置差情報を用いて復号する。また、位置差情報変更部290dは、動き符号化部286cから位置差情報を取得して、取得した位置差情報を変換する。また、画像復号部292dは、動き符号化部286cから位置差情報を取得するとともに、符号化部288cから動画構成画像を取得して、取得した動画構成画像を当該位置差情報を用いて復号する。
なお、特徴領域検出ユニット250は、入力された動画構成画像から特徴の種類が異なる複数の特徴領域を検出する。この場合、画質低減部281は、一の特徴の種類を持つ特徴領域において解像度を低減することにより入力画像から一の特徴領域画像を生成するとともに、他の特徴の種類を持つ特徴領域において当該特徴領域画像より高解像度な他の特徴領域画像を入力画像から生成する。そして、階層間差分圧縮部282b−cは、特徴領域の種類ごとに用意されており、少なくとも予め定められた種類の特徴領域において、特徴領域以外の領域との間で解像度の差を持つ特徴領域画像を処理する。
具体的には、階層間差分圧縮部282bは、全ての特徴領域を含む領域において、最も低い解像度を持つ低解像度特徴領域画像を処理する。階層間差分圧縮部282cは、予め定められた種類の特徴領域において低解像度特徴領域画像より解像度が高い中解像度特徴領域画像を処理する。そして、階層間差分圧縮部282dは、予め定められた他の種類の特徴領域において高い解像度を持つ高解像度特徴領域画像を処理する。
このように、差分処理部287は、一の特徴の種類を持つ特徴領域および他の特徴の種類を持つ特徴領域において一の特徴領域画像と拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、一の特徴の種類を持つ特徴領域および他の特徴の種類を持つ特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域差分画像を生成する。
このように、差分処理部287は、一の特徴の種類を持つ特徴領域において一の特徴領域画像と拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、一の特徴の種類を持つ特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域差分画像を生成するとともに、他の特徴の種類を持つ特徴領域において他の特徴領域画像と他の特徴領域画像における特徴領域を拡大した画像との間の差分が空間周波数領域に変換された空間周波数成分を持ち、他の特徴の種類を持つ特徴領域以外の領域において空間周波数成分のデータ量が低減された特徴領域間差分画像を生成する。
符号化部288は、特徴領域差分画像、特徴領域間差分画像、および低画質画像をそれぞれ符号化する。そして、出力部207は、動き符号化部286a−dにより符号化された位置差情報および符号化部288a−dにより符号化された動画構成画像(例えば、低画質画像、特徴領域差分画像、および特徴領域間差分画像)を、多重化して出力する。
以上説明したように、階層間差分圧縮部282aは、特徴領域を含む全画像領域を低画質化した動画構成画像、いわば入力された動画構成画像の低空間周波数成分を有する動画構成画像を生成する。そして、階層間差分圧縮部282bは、階層間差分圧縮部282aよりも高い周波数成分を有する動画構成画像であって、階層間差分圧縮部282cよりも低い周波数成分を有する動画構成画像を生成する。そして、階層間差分圧縮部282bは、特徴領域以外の領域において、階層間差分圧縮部282aが生成した動画構成画像に対する差分値が低減された動画構成画像を生成する。
同様に、階層間差分圧縮部282cは、階層間差分圧縮部282bよりも高い周波数成分を有する動画構成画像であって、階層間差分圧縮部282dよりも低い周波数成分を有する動画構成画像を生成する。そして、階層間差分圧縮部282dは、階層間差分圧縮部282cよりも高い周波数成分を有する動画構成画像を生成する。そして、階層間差分圧縮部282cおよび階層間差分圧縮部282dは、特徴領域以外の領域において、それぞれ階層間差分圧縮部282bおよびcが生成した動画構成画像に対する差分値が低減された動画構成画像を生成する。
このように、階層間差分圧縮部282b−dのそれぞれは、予め定められた特徴の種類を持つ特徴領域について、他の領域より高い画質の動画を処理することによって、特徴の種類に応じて画質が異なる動画を外部に提供することができる。このとき、階層間差分圧縮部282b−dは、他の階層間差分圧縮部282が処理する低画質の動画構成画像との間の差分により圧縮するので、効率的に圧縮することができる。
なお、特徴領域検出部203は、複数の特徴領域のそれぞれの特徴量を検出した場合に、特徴領域として検出した信頼性の度合いを示す確信度を複数の特徴領域毎に算出してよい。そして、階層間差分圧縮部282b−dは、複数の特徴領域のそれぞれの特徴量および確信度に応じて解像度が調整された特徴領域の画像を圧縮する。例えば、画質低減部281は、複数の特徴領域のそれぞれの画像を、それぞれの特徴量および確信度に応じて解像度を調整して、階層間差分圧縮部282に供給してよい。例えば、画質低減部281は、複数の特徴領域のそれぞれの画像を、確信度が低いほど、特徴量に応じて予め定められた解像度より高い解像度にしてよい。
なお、画像処理装置120は、上記のように解像度が異なる複数の階層間の画像の差分を符号化することによって階層的に符号化する。このことから明らかなように、画像処理装置120による圧縮方式の一部は、H.264/SVCによる圧縮方式を含むことが明らかである。
なお、画像処理装置170は、階層間差分圧縮部282a−dのそれぞれにより圧縮された複数の動画構成画像を取得する。そして、画像処理装置170は、取得した複数の動画構成画像をそれぞれ復号する。そして、画像処理装置170は、復号することにより得られた複数の動画構成画像を重ね合わせることにより一の合成画像を生成する。そして、画像処理装置170は、生成した合成画像を動画構成画像として含む動画を、表示装置180に供給する。
図6は、特徴領域検出ユニット250のブロック構成の一例を示す。特徴領域検出ユニット250は、特徴領域検出部203、特定ユニット251、対応特徴領域検出部255、および検出方法格納部256を有する。
特徴領域検出部203は、複数の撮像装置100のうちの一の撮像装置100により撮像された画像における特徴領域を検出する。具体的には、特徴領域検出部203は、複数の撮像装置100のうちの一の撮像装置100により撮像された画像を、圧縮動画伸張部202から取得して、取得した画像における特徴領域を検出する。特徴領域検出部203は、一の撮像装置100により撮像された動画に含まれる複数の動画構成画像における特徴領域を検出してもよい。また、特徴領域検出部203は、複数の撮像装置100のうちの一の撮像装置100により撮像された動画に含まれる複数の動画構成画像に基づいて、当該複数の動画構成画像における動く被写体を含む領域を特徴領域として検出してもよい。ここで、上記一の撮像装置100は、撮像装置100a−cのいずれであってもよい。たとえば、複数の撮像装置100が並行して特徴領域を検出する処理をおこない、先に特徴領域を検出した撮像装置100を、上記一の撮像装置100としてもよい。
特定ユニット251は、特徴領域検出部203が検出した特徴領域の特徴量に基づいて、他の撮像装置100により撮像される画像における特徴領域の特徴量を特定する。そして、特定ユニット251は、特徴領域検出部203が検出した特徴領域の特徴量に基づいて、圧縮動画伸張部202から取得した画像における特徴領域の特徴量を特定する。ここで、特定ユニット251は、向き特定部252、大きさ特定部253、およびタイミング特定部254を含む。たとえば、特定ユニット251は、特徴領域検出部203が検出した特徴領域の特徴量と、他の撮像装置100により撮像される画像における特徴領域の特徴量とが対応付けられて格納されているデータベースを参照することにより、他の撮像装置100により撮像される画像における特徴領域の特徴量を特定する。
また、特定ユニット251は、他の撮像装置100により撮像される画像における特徴領域の特徴量を特定したときの信頼性の度合いを示す確信度を特定してもよい。たとえば、特定ユニット251は、他の撮像装置100により撮像される画像における特徴領域の特徴量を特定したときの処理内容、処理回数、処理時間などに基づいて、上記確信度を算出してもよい。
向き特定部252は、特徴領域検出部203が検出した特徴領域に含まれる人物の向き、ならびに一の撮像装置100および他の撮像装置100のそれぞれの位置および撮像方向に基づいて、他の撮像装置により撮像される画像における人物の向きを特定する。ここで、上記人物の向きとは、人物の顔又は体の向き(正面、背面、上、下、左、および右)であるが、これらに限らない。
大きさ特定部253は、特徴領域検出部203が検出した特徴領域に含まれる人物の大きさ、ならびに前記一の撮像装置100および前記他の撮像装置100のそれぞれの撮像条件に基づいて、他の撮像装置100により撮像される画像における人物の大きさを特定する。ここで、上記撮影条件とは、撮影位置、撮影方向、被写体までの距離、および拡縮率であるが、これらに限らない。
タイミング特定部254は、特徴領域検出部203が検出した特徴領域における動き量に基づいて、当該特徴領域に撮像された被写体を他の撮像装置100が撮像するタイミングを特定する。たとえば、タイミング特定部254は、他の撮像装置100が撮像した動画および当該動画に含まれる複数の動画構成画像のそれぞれに記された撮影時刻、フレーム番号などに基づいて、上記タイミングを特定する。なお、タイミング特定部254は、上記動き量に限らず、各撮像装置100の撮影位置、撮影方向などに基づいて、上記タイミングを特定してもよい。
対応特徴領域検出部255は、特徴領域検出部203が検出した特徴領域に撮像された被写体を他の撮像装置100が撮像して得られた画像から、特徴領域検出部203が検出した特徴領域の特徴量に基づいて特徴領域を検出する。たとえば、対応特徴領域検出部255は、特徴領域検出部203が検出した特徴領域の特徴量に応じた検出方法で、他の撮像装置100により撮像された画像から特徴領域を検出する。
なお、対応特徴領域検出部255は、検出方法格納部256が格納している検出方法のうち、特徴領域検出部203が検出した特徴領域の特徴量に対応づけて検出方法格納部256が格納している検出方法をより優先して用いて、他の撮像装置100により撮像された画像から特徴領域を検出してもよい。また、対応特徴領域検出部255は、検出方法格納部256が格納している検出方法のうち、特徴領域検出部203が検出した特徴領域における特徴の種類に対応づけて検出方法格納部256が格納している検出方法をより優先して用いて、他の撮像装置100により撮像された画像から特徴領域を検出してもよい。
また、対応特徴領域検出部255は、検出方法格納部256が格納している検出方法のうち、特徴領域検出部203が検出した特徴領域に含まれる被写体の種類に対応づけて検出方法格納部256が格納している検出方法をより優先して用いて、他の撮像装置100により撮像された画像から特徴領域を検出してもよい。また、対応特徴領域検出部255は、検出方法格納部256が格納している検出方法のうち、特徴領域検出部203が検出した特徴領域の位置または大きさに対応付けて検出方法格納部256が格納している検出方法をより優先して用いて、他の撮像装置100により撮像された画像から特徴領域を検出してもよい。
また、対応特徴領域検出部255は、特徴領域に含まれる被写体の種類、部位、位置、大きさ、向き、服装、色、輝度、動き量、および撮影タイミングのいずれかに対応付けて検出方法格納部256が格納している検出方法をより優先して用いて、他の撮像装置100により撮像された画像から特徴領域を検出してもよい。また、対応特徴領域検出部255は、向き特定部252が特定した人物の向きに対応づけて検出方法格納部256が格納している検出方法をより優先して用いて、他の撮像装置100により撮像された画像から特徴領域を検出してもよい。また、対応特徴領域検出部255は、大きさ特定部253が特定した人物の大きさに対応づけて検出方法格納部256が格納している検出方法をより優先して用いて、他の撮像装置100により撮像された画像から特徴領域を検出してもよい。
また、対応特徴領域検出部255は、特徴領域検出部203が検出した特徴領域の特徴量に対応付けて検出方法格納部が格納している検出方法をより優先して用いて、他の撮像装置100により撮像された動画に含まれる複数の動画構成画像から特徴領域を検出してもよい。また、対応特徴領域検出部255は、特徴領域検出部203が検出した特徴領域に含まれる動く被写体の動き量に対応づけて検出方法格納部が格納している検出方法をより優先して用いて、他の撮像装置100により撮像された動画に含まれる複数の動画構成画像から特徴領域を検出してもよい。また、対応特徴領域検出部255は、特徴領域検出部203が検出した特徴領域の特徴量に対応づけて検出方法格納部256が格納している検出方法をより優先して用いて、他の撮像装置100がタイミング特定部254が特定したタイミングで撮像した動画構成画像から特徴領域を検出してもよい。
また、対応特徴領域検出部255は、特定ユニット251によって特定された確信度に基づいて、他の撮像装置100が撮像した画像から、特徴領域検出部203が検出した特徴領域の特徴量に基づいて特徴領域を検出するか否かを判断してもよい。たとえば、対応特徴領域検出部255は、特定ユニット251によって特定された確信度が、所定の閾値よりも低い場合、他の撮像装置100が撮像した画像から、特徴領域検出部203が検出した特徴領域の特徴量に基づいて特徴領域を検出しないと判断してもよい。
検出方法格納部256は、特徴領域における複数の特徴量のそれぞれに対応づけて、画像から特徴領域を検出する検出方法を格納する。たとえば、検出方法格納部256は、特徴領域における複数の特徴の種類のそれぞれに対応づけて検出方法を格納する。また、検出方法格納部256は、特徴領域における複数の被写体の種類のそれぞれに対応づけて検出方法を格納してもよい。
また、検出方法格納部256は、特徴領域に含まれる複数の人物の向きのそれぞれに対応付けて検出方法を格納してもよい。この場合、検出方法格納部256は、特徴領域に含まれる人物の向きのそれぞれに対応付けて、この向きの人物を優先して検出する検出方法を格納してもよい。また、検出方法格納部256は、特徴領域に含まれる複数の人物の大きさのそれぞれに対応付けて検出方法を格納してもよい。この場合、検出方法格納部256は、特徴領域に含まれる人物の大きさのそれぞれに対応付けて、この大きさの人物を優先して検出する検出方法を格納してもよい。
また、検出方法格納部256は、特徴領域に含まれる被写体の動き量に対応づけて、特徴領域を検出する検出方法を格納してもよい。この場合、検出方法格納部256は、特徴領域に含まれる被写体の動き量に対応付けて、この動き量の被写体を優先して検出する検出方法を付けて格納してもよい。
図7は、撮像装置100の配置の一例を示す。監視対象空間150内においては、撮像装置100a、撮像装置100b、および撮像装置100cが、それぞれ異なる方向を撮像するように配置されている。また、監視対象空間150において、撮像装置100aは、撮像領域700aを撮像する。また、監視対象空間150において、撮像装置100bは、撮像領域700bを撮像する。また、監視対象空間150において、撮像装置100cは、撮像領域700cを撮像する。
撮像領域700bには、方向Aを向いている侵入者710が存在する。撮像装置100bは、方向Aに向かって撮像するように配置されている。このため、撮像装置100bは、侵入者710の背面を撮像している。侵入者710は、撮像領域700b内を方向Aに向かって進行している。このため、撮像装置100bは、撮像方向に向かって侵入者710が遠ざかっていく様子を、侵入者710の背面から撮像する。
撮像装置100cは、方向Aに向かって右側の方向から、方向Aと直交して、方向Aに向かって左側の方向を撮像するように配置されている。このため、撮像装置100cは、撮像領域700bから方向Aに移動することにより撮像領域700cに進入した侵入者710の右側面を撮像する。侵入者710が、撮像領域700c内を方向Aに向かって移動すると、撮像装置100cは、撮像方向に対して左側の方向から右側の方向に向かって侵入者710が移動する様子を、侵入者710の右側面から撮像する。
図8は、特徴領域を検出する方法の一例を示す。動画800は、撮像装置100bによって撮像された動画を示す。この動画800は、連続する動画構成画像801a−801fを含む。特徴領域検出部203は、動画構成画像801a−801fのそれぞれから、特徴領域802a−fを検出する。特徴領域802a−fは、それぞれ侵入者710を含む。
一方、動画810は、撮像装置100cによって撮像された動画を示す。この動画810は、連続する動画構成画像811a−811fを含む。対応特徴領域検出部255は、動画構成画像811a−811fのそれぞれから、特徴領域812a−fを検出する。特徴領域812a−fは、それぞれ侵入者710を含む。
特徴領域検出ユニット250は、撮像装置100bおよび撮像装置100cの撮影条件に関する情報を取得する。特徴領域検出ユニット250は、撮影条件に関する情報として、撮像装置100bおよび撮像装置100cの撮像日時、撮影位置、撮影方向、拡縮率などを取得する。また、特徴領域検出ユニット250は、撮像装置100bが撮像した動画構成画像801a−fから検出された特徴領域802a−fから、当該特徴領域802a−fに含まれている被写体の特徴量、すわなち、侵入者710の特徴量を特定する。特徴領域検出ユニット250は、侵入者710の特徴量として、侵入者710の種類、向き、位置、大きさ、移動方向、移動量などを特定する。
そして、特徴領域検出ユニット250は、撮像装置100bおよび撮像装置100cの撮影条件に関する情報と、侵入者710の特徴量とに基づいて、撮像装置100cが撮像した動画構成画像の中から、侵入者710を特徴領域として検出すべき動画構成画像として、動画構成画像812a−fを特定する。さらに、特徴領域検出ユニット250は、特定された動画構成画像812a−fのそれぞれにおいて、侵入者710を特徴領域として検出すべき領域を特定する。そのうえ、特徴領域検出ユニット250は、特定された動画構成画像812a−fのそれぞれにおいて、特定された領域から、他の領域よりも低い閾値を用いて、侵入者710を特徴領域812a−fとして検出する。
このように、本実施形態の画像処理装置120は、一の撮像装置100が撮像した画像から特徴領域を検出して、その特徴量に応じた検出方法を用いて、他の撮像装置100が撮像した画像から特徴領域を検出する。これにより、本実施形態の画像処理装置120を実際の監視システムに適用した場合には、本実施形態の画像処理装置120を適用しない監視システムよりも、他の撮像装置100が撮像した画像からの特徴領域の検出精度および検出効率を高めることができる場合がある。
なお、画像処理装置120は、特徴領域検出部203が検出した特徴領域の特徴量に基づいて、他の撮像装置100の動作を制御する撮像装置制御部をさらに備えてもよい。この場合、撮像装置制御部が制御する他の撮像装置100の動作は、フォーカス、ズーム、シャッタースピード、撮影モード、画質モード、フォトサイズ、明るさ補正の少なくともいずれか一つであるが、これらに限らない。これにより、本実施形態の画像処理装置120を実際の監視システムに適用した場合には、本実施形態の画像処理装置120を適用しない監視システムよりも、他の撮像装置100が撮像した画像からの特徴領域の検出精度および検出効率を高めることができる場合がある。
図9は、画像処理装置120および画像処理装置170のハードウェア構成の一例を示す。画像処理装置120および画像処理装置170は、CPU周辺部と、入出力部と、レガシー入出力部とを備える。CPU周辺部は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、および表示デバイス1580を有する。入出力部は、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、およびCD−ROMドライブ1560を有する。レガシー入出力部は、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、および入出力チップ1570を有する。
ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505、およびグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510、およびRAM1520に格納されたプログラムに基づいて動作して、各部の制御をする。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示デバイス1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置であるハードディスクドライブ1540、通信インターフェイス1530、CD−ROMドライブ1560を接続する。ハードディスクドライブ1540は、CPU1505が使用するプログラム、およびデータを格納する。通信インターフェイス1530は、ネットワーク通信装置1598に接続してプログラムまたはデータを送受信する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、および通信インターフェイス1530に提供する。
入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、および入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、放射線撮像システムが起動時に実行するブート・プログラム、あるいは放射線撮像システムのハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540、および通信インターフェイス1530に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、あるいはパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
CPU1505が実行するプログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。記録媒体に格納されたプログラムは圧縮されていても非圧縮であってもよい。プログラムは、記録媒体からハードディスクドライブ1540にインストールされ、RAM1520に読み出されてCPU1505により実行される。
CPU1505により実行されるプログラムは、画像処理装置120を、図1から図8に関連して説明した圧縮動画取得部201、圧縮動画伸張部202、特徴領域検出部203、画像分割部204、および画像生成部205として機能させる。また、CPU1505により実行されるプログラムは、画像処理装置120を、図1から図8に関連して説明した固定値化部211、画質低減部221、符号化部231、対応付け処理部206、および出力部207として機能させる。また、CPU1505により実行されるプログラムは、画像処理装置120を、図1から図8に関連して説明した、入力動画画質制御部280、画質低減部281、および階層間差分圧縮部282として機能させる。
また、CPU1505により実行されるプログラムは、画像処理装置120を、図1から図8に関連して説明した向き特定部252、大きさ特定部253、タイミング特定部254、対応特徴領域検出部255、および検出方法格納部256として機能させる。また、CPU1505により実行されるプログラムは、画像処理装置170を、図1から図8に関連して説明した圧縮動画取得部301、対応付け解析部302、圧縮動画伸張部311、動画生成部303、および出力部304として機能させる。
以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1590、CD−ROM1595の他に、DVDまたはPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークあるいはインターネットに接続されたサーバシステムに設けたハードディスクまたはRAM等の記憶装置を記録媒体として使用して、ネットワークを介したプログラムとして画像処理装置120および画像処理装置170に提供してもよい。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
一実施形態に係る画像処理システム10の一例を示す。 画像処理装置120のブロック構成の一例を示す。 画像処理装置170のブロック構成の一例を示す。 画像処理装置120のブロック構成の別の一例を示す。 階層間差分圧縮部282aおよびbのブロック構成の一例を示す。 特徴領域検出ユニット250のブロック構成の一例を示す。 撮像装置100の配置の一例を示す。 特徴領域を検出する方法の一例を示す。 画像処理装置120および画像処理装置170のハードウェア構成の一例を示す。
符号の説明
10 画像処理システム
100 撮像装置
110 通信ネットワーク
120 画像処理装置
130 人物
140 移動物体
150 監視対象空間
160 空間
170 画像処理装置
180 表示装置
201 圧縮動画取得部
202 圧縮動画伸張部
203 特徴領域検出部
204 画像分割部
205 画像生成部
206 対応付け処理部
207 出力部
210 固定値化ユニット
211 固定値化部
220 低減化ユニット
221 画質低減部
230 符号化ユニット
231 符号化部
231a 背景領域動画符号化部
231b−d 特徴領域動画符号化部
240 圧縮部
250 特徴領域検出ユニット
251 特定ユニット
252 向き特定部
253 大きさ特定部
254 タイミング特定部
255 対応特徴領域検出部
256 検出方法格納部
280 入力動画画質制御部
281 画質低減部
282 階層間差分圧縮部
285 動き解析部
286 動き符号化部
287 差分処理部
288 符号化部
290 位置差情報変更部
291 画素値変更部
292 画像復号部
293 画像拡大部
294 差分対象領域決定部
295 位置差情報生成部
296 差分画素画像生成部
297 空間周波数領域変換部
298 量子化部
299 周波数領域画質変換部
301 圧縮動画取得部
302 対応付け解析部
310 圧縮動画伸張ユニット
311 圧縮動画伸張部
303 動画生成部
304 出力部

Claims (12)

  1. 複数の撮像装置のうちの一の撮像装置により撮像された画像における特徴領域を検出する特徴領域検出部と、
    前記特徴領域検出部が検出した特徴領域に撮像された被写体を他の撮像装置が撮像して得られた画像から、前記特徴領域検出部が検出した特徴領域の特徴量に基づいて特徴領域を検出する対応特徴領域検出部と
    を備える画像処理装置。
  2. 前記対応特徴領域検出部は、前記特徴領域検出部が検出した特徴領域の特徴量に応じた検出方法で、前記他の撮像装置により撮像された画像から特徴領域を検出する
    請求項1に記載の画像処理装置。
  3. 特徴領域における複数の特徴量のそれぞれに対応づけて、画像から特徴領域を検出する検出方法を格納する検出方法格納部
    をさらに備え、
    前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域の特徴量に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された画像から特徴領域を検出する
    請求項2に記載の画像処理装置。
  4. 前記検出方法格納部は、特徴領域における複数の特徴の種類のそれぞれに対応づけて検出方法を格納し、
    前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域における特徴の種類に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された画像から特徴領域を検出する
    請求項3に記載の画像処理装置。
  5. 前記検出方法格納部は、特徴領域における複数の被写体の種類のそれぞれに対応づけて前記検出方法を格納し、
    前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域に含まれる被写体の種類に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された画像から特徴領域を検出する
    請求項4に記載の画像処理装置。
  6. 前記特徴領域検出部が検出した特徴領域に含まれる人物の向き、ならびに前記一の撮像装置および前記他の撮像装置のそれぞれの位置および撮像方向に基づいて、前記他の撮像装置により撮像される画像における人物の向きを特定する向き特定部
    をさらに備え、
    前記検出方法格納部は、特徴領域に含まれる複数の人物の向きのそれぞれに対応づけて検出方法を格納し、
    前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記向き特定部が特定した人物の向きに対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された画像から特徴領域を検出する
    請求項4に記載の画像処理装置。
  7. 前記特徴領域検出部が検出した特徴領域に含まれる人物の大きさ、ならびに前記一の撮像装置および前記他の撮像装置のそれぞれの撮像条件に基づいて、前記他の撮像装置により撮像される画像における人物の大きさを特定する大きさ特定部
    をさらに備え、
    前記検出方法格納部は、特徴領域に含まれる複数の人物の大きさのそれぞれに対応づけて検出方法を格納し、
    前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記大きさ特定部が特定した人物の大きさに対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された画像から特徴領域を検出する
    請求項4に記載の画像処理装置。
  8. 前記複数の撮像装置は、前記画像である動画における複数の動画構成画像を含む動画を撮像し、
    前記特徴領域検出部は、前記一の撮像装置により撮像された動画に含まれる複数の動画構成画像における特徴領域を検出し、
    前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域の特徴量に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された動画に含まれる複数の動画構成画像から特徴領域を検出する
    請求項3に記載の画像処理装置。
  9. 前記特徴領域検出部は、前記複数の撮像装置のうちの前記一の撮像装置により撮像された動画に含まれる複数の動画構成画像に基づいて、当該複数の動画構成画像における動く被写体を含む領域を特徴領域として検出し、
    前記検出方法格納部は、特徴領域に含まれる被写体の動き量に対応づけて、特徴領域を検出する検出方法を格納し、
    前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域に含まれる動く被写体の動き量に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置により撮像された動画に含まれる複数の動画構成画像から特徴領域を検出する
    請求項8に記載の画像処理装置。
  10. 前記特徴領域検出部は、前記複数の撮像装置のうちの前記一の撮像装置により撮像された動画に含まれる複数の動画構成画像に基づいて、当該複数の動画構成画像における動く被写体を含む領域を特徴領域として検出し、
    前記画像処理装置は、
    前記特徴領域検出部が検出した特徴領域における動き量に基づいて、当該特徴領域に撮像された被写体を前記他の撮像装置が撮像するタイミングを特定するタイミング特定部
    をさらに備え、
    前記対応特徴領域検出部は、前記検出方法格納部が格納している検出方法のうち、前記特徴領域検出部が検出した特徴領域の特徴量に対応づけて前記検出方法格納部が格納している検出方法をより優先して用いて、前記他の撮像装置が前記タイミング特定部が特定したタイミングで撮像した動画構成画像から特徴領域を検出する
    請求項8に記載の画像処理装置。
  11. 複数の撮像装置のうちの一の撮像装置により撮像された画像における特徴領域を検出する特徴領域検出段階と、
    前記特徴領域検出段階が検出した特徴領域に撮像された被写体を他の撮像装置が撮像して得られた画像から、前記特徴領域検出段階が検出した特徴領域の特徴量に基づいて特徴領域を検出する対応特徴領域検出段階と
    を備える画像処理方法。
  12. 画像を処理する画像処理装置用のプログラムであって、前記画像処理装置を、
    複数の撮像装置のうちの一の撮像装置により撮像された画像における特徴領域を検出する特徴領域検出部、
    前記特徴領域検出部が検出した特徴領域に撮像された被写体を他の撮像装置が撮像して得られた画像から、前記特徴領域検出部が検出した特徴領域の特徴量に基づいて特徴領域を検出する対応特徴領域検出部、
    として機能させるプログラム。
JP2007240186A 2007-09-14 2007-09-14 画像処理装置、画像処理方法、およびプログラム Active JP4911468B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007240186A JP4911468B2 (ja) 2007-09-14 2007-09-14 画像処理装置、画像処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007240186A JP4911468B2 (ja) 2007-09-14 2007-09-14 画像処理装置、画像処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2009071732A true JP2009071732A (ja) 2009-04-02
JP4911468B2 JP4911468B2 (ja) 2012-04-04

Family

ID=40607505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007240186A Active JP4911468B2 (ja) 2007-09-14 2007-09-14 画像処理装置、画像処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP4911468B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010122727A1 (ja) * 2009-04-20 2010-10-28 富士フイルム株式会社 画像処理装置、画像処理方法およびコンピュータ読み取り可能な媒体
JP2013522971A (ja) * 2010-03-11 2013-06-13 クゥアルコム・インコーポレイテッド 複数の特徴検出器の適用に基づいた画像特徴検出
JP2016001397A (ja) * 2014-06-11 2016-01-07 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
US11741632B2 (en) 2020-07-22 2023-08-29 Canon Kabushiki Kaisha System, information processing method, method of manufacturing product, and recording medium with images of object that moves relative to cameras being captured at predetermined intervals and having different image capture times

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256946A (ja) * 2002-02-28 2003-09-12 Minolta Co Ltd 監視装置
JP2005072840A (ja) * 2003-08-22 2005-03-17 Matsushita Electric Ind Co Ltd 動体検出装置
JP2006229465A (ja) * 2005-02-16 2006-08-31 Matsushita Electric Ind Co Ltd 監視装置、監視方法、監視用プログラム
JP2008103890A (ja) * 2006-10-18 2008-05-01 Chiba Univ 自動追尾システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256946A (ja) * 2002-02-28 2003-09-12 Minolta Co Ltd 監視装置
JP2005072840A (ja) * 2003-08-22 2005-03-17 Matsushita Electric Ind Co Ltd 動体検出装置
JP2006229465A (ja) * 2005-02-16 2006-08-31 Matsushita Electric Ind Co Ltd 監視装置、監視方法、監視用プログラム
JP2008103890A (ja) * 2006-10-18 2008-05-01 Chiba Univ 自動追尾システム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010122727A1 (ja) * 2009-04-20 2010-10-28 富士フイルム株式会社 画像処理装置、画像処理方法およびコンピュータ読み取り可能な媒体
JP2010273328A (ja) * 2009-04-20 2010-12-02 Fujifilm Corp 画像処理装置、画像処理方法およびプログラム
US8599209B2 (en) 2009-04-20 2013-12-03 Fujifilm Corporation Image processing apparatus, image processing method, and computer readable medium
JP2013522971A (ja) * 2010-03-11 2013-06-13 クゥアルコム・インコーポレイテッド 複数の特徴検出器の適用に基づいた画像特徴検出
US8861864B2 (en) 2010-03-11 2014-10-14 Qualcomm Incorporated Image feature detection based on application of multiple feature detectors
JP2016001397A (ja) * 2014-06-11 2016-01-07 キヤノン株式会社 画像処理装置、画像処理方法、コンピュータプログラム
US11741632B2 (en) 2020-07-22 2023-08-29 Canon Kabushiki Kaisha System, information processing method, method of manufacturing product, and recording medium with images of object that moves relative to cameras being captured at predetermined intervals and having different image capture times

Also Published As

Publication number Publication date
JP4911468B2 (ja) 2012-04-04

Similar Documents

Publication Publication Date Title
JP2009049979A (ja) 画像処理装置、画像処理方法、画像処理システム、及びプログラム
JP5531327B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP4895042B2 (ja) 画像圧縮装置、画像圧縮方法、及びプログラム
JP2009089356A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2009048620A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2005027076A (ja) 電子カメラ
JP2009049976A (ja) 画像処理装置、画像処理方法、及びプログラム
JP4911468B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2011527841A (ja) 画像処理装置およびそれを用いた撮像装置
JP5256496B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP5082134B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2009027457A (ja) 画像処理装置、画像処理方法、及びプログラム
Feng et al. Supporting region-of-interest cropping through constrained compression
JP5156982B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP4817263B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP4817262B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP4895044B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP4900602B2 (ja) 画像処理装置、画像処理方法、プログラム、および画像処理システム
JP5117424B2 (ja) 画像処理システム、画像処理方法、およびプログラム
JP4895041B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2009071733A (ja) 画像処理装置、画像処理システム、画像処理方法、およびプログラム
JP5062407B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2009027367A (ja) 画像処理装置、画像処理方法、及びプログラム
JP4873488B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP2009253581A (ja) 画像処理装置、画像処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111220

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120110

R150 Certificate of patent or registration of utility model

Ref document number: 4911468

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250